
Методы сегментации облака точек с использованием архитектуры Transformer продолжают развиваться. SPFormer предлагает новый подход на основе декодеров Transformer, использующих фиксированное количество запросов, что позволяет напрямую предсказывать объекты без постобработки и удаления дубликатов.
Однако метод Mask-Attention-Free Transformer (MAFT) фокусируется на проблеме медленной сходимости, добавляя регрессию центра для управления перекрестным вниманием. В MAFT используются обучаемые позиционные запросы и контекстуальное кодирование относительного положения, что делает метод более гибким и эффективным в сравнении с маскированным вниманием.
MAFT демонстрирует превосходные результаты на различных наборах данных, обеспечивая высокую производительность и ускоряя процесс обучения.
Читать далее...
Однако метод Mask-Attention-Free Transformer (MAFT) фокусируется на проблеме медленной сходимости, добавляя регрессию центра для управления перекрестным вниманием. В MAFT используются обучаемые позиционные запросы и контекстуальное кодирование относительного положения, что делает метод более гибким и эффективным в сравнении с маскированным вниманием.
MAFT демонстрирует превосходные результаты на различных наборах данных, обеспечивая высокую производительность и ускоряя процесс обучения.
Читать далее...