
Задача обнаружения объектов в облаке точек становится всё более актуальной. Эффективность такого решения во многом зависит от структурных данных локальных областей. Однако, разреженность и нерегулярность облаков точек могут создать помехи, усложняя задачу.
Традиционные методы свертки используют фиксированные ядра, что приводит к обработке всех соседних точек одинаково, учитывая зашумленные или нерелевантные точки. Напротив, Transformer с механизмом Self-Attention может адаптивно исключать шумные или неактуальные точки.
Тем не менее, стандартный Transformer игнорирует пространственные отношения и информацию о локальной структуре, что важно для распознавания объектов. Чтобы решить эту проблему, авторы предложили SEFormer — трансформер с кодированием структуры, учитывающий направление и расстояние.
SEFormer изучает различные преобразования для точек Value с разных направлений и расст...
Читать далее...
Традиционные методы свертки используют фиксированные ядра, что приводит к обработке всех соседних точек одинаково, учитывая зашумленные или нерелевантные точки. Напротив, Transformer с механизмом Self-Attention может адаптивно исключать шумные или неактуальные точки.
Тем не менее, стандартный Transformer игнорирует пространственные отношения и информацию о локальной структуре, что важно для распознавания объектов. Чтобы решить эту проблему, авторы предложили SEFormer — трансформер с кодированием структуры, учитывающий направление и расстояние.
SEFormer изучает различные преобразования для точек Value с разных направлений и расст...
Читать далее...