Методы сегментации облака точек с использованием архитектуры Transformer продолжают развиваться. SPFormer предлагает новый подход на основе декодеров Transformer, использующих фиксированное количество запросов, что позволяет напрямую предсказывать объекты без постобработки и удаления дубликатов.



Однако метод Mask-Attention-Free Transformer (MAFT) фокусируется на проблеме медленной сходимости, добавляя регрессию центра для управления перекрестным вниманием. В MAFT используются обучаемые позиционные запросы и контекстуальное кодирование относительного положения, что делает метод более гибким и эффективным в сравнении с маскированным вниманием.



MAFT демонстрирует превосходные результаты на различных наборах данных, обеспечивая высокую производительность и ускоряя процесс обучения.



Читать далее...