DETR. End-to-End Object Detection with Transformers
DETR - одна из первых работ, в которой соединили CNN и трансформер для решения задачи детекции.
💡 Интересная фишка этой модели - она не требует пост-обработки в виде Non-maximum Suppression
DETR и ее модификации на моменты выхода оказывались SOTA-моделями на COCO-датасете, а идеи из этой статьи используются в других работах.
В новом видео Миша Лиз, куратор нашего курса CV Rocket, расскажет об этой архитектуре. Из видео вы узнаете:
- Как устроена архитектура
- Зачем нужно позиционное кодирование
- Что такое "object queries"
- Как сопоставляются предсказанные и размеченные объекты
🎞 Смотрите видео и подписывайтесь на канал: https://youtu.be/SVnbFqXtrQU
DETR - одна из первых работ, в которой соединили CNN и трансформер для решения задачи детекции.
DETR и ее модификации на моменты выхода оказывались SOTA-моделями на COCO-датасете, а идеи из этой статьи используются в других работах.
В новом видео Миша Лиз, куратор нашего курса CV Rocket, расскажет об этой архитектуре. Из видео вы узнаете:
- Как устроена архитектура
- Зачем нужно позиционное кодирование
- Что такое "object queries"
- Как сопоставляются предсказанные и размеченные объекты