Внимание! Спасибо за внимание! 😄



Наткнулся на статейку, которая разбирает, как внимание человека и модели-трансформера (например, GPT) различаются при решении задач на основе схемы Винограда (The Winograd Schema Challenge, или WSC), названный в честь Терри Винограда, профессора компьютерных наук в Стэнфордском университете. Тест основан на разрешении синтаксической неоднозначности.



Это такие задачки, где нужно понять, кто или что упоминается в предложении (например, в предложении "Машина не смогла перепрыгнуть через канаву, потому что она была слишком широкой," нужно понять, что она относится к канаве).



Основные моменты:



🔤Сравнение внимания: Исследователи проанализировали, как люди и модели обращают внимание на разные части текста, чтобы решить задачи по схеме Винограда. Люди, естественно, лучше понимают контекст, потому что они могут учитывать множество факторов одновременно.



🔤Корреляция между вниманием человека и модели: Авторы исследования обнаружили умеренную корреляцию между тем, на что обращают внимание люди и на что – модели. Это значит, что модели иногда правильно угадывают, какие части текста важны, но делают это далеко не всегда.



🔤Ограничения моделей: Модели-трансформеры хороши, но они всё ещё далеки от полного понимания человеческого контекста. Они могут ошибаться в интерпретации текста, особенно когда дело касается тонких нюансов, которые человеку очевидны.



🔤Практическое применение: Понимание того, как модели обрабатывают внимание, помогает их улучшить и приблизить их работу к человеческому пониманию. Это знание может быть использовано для создания более продвинутых алгоритмов и улучшения качества обработки естественного языка.



По сути, статья показывает, что модели пока не могут заменить человека в задачах, требующих глубокого понимания контекста. Мы на правильном пути, но работы еще куча.