В психологии есть такая вещь, как Theory of Mind (ToM), или "теория разума" по-русски. Обладать теорией разума - значит иметь способность приписывать независимые представления себе и другим людям с целью объяснения своего и чужого поведения. Эти представления должны быть независимыми как от реального положения дел (поскольку люди могут ожидать то, чего нет на самом деле), так и от представлений других людей (поскольку люди могут ожидать и желать разных вещей).



Классическая задача Салли и Энн (Sally—Anne task) до сих пор остаётся одним из наиболее распространённых тестов для изучения теории разума. В этом задании ребёнку показывают двух кукол, Салли и Энн; у Салли есть корзинка, а у Энн — коробка. Ребёнок видит, как Салли кладёт свой шарик в корзинку и уходит. Пока Салли нет, озорница Энн перекладывает шарик из корзинки в свою коробку и тоже уходит. Теперь Салли возвращается. Ребёнка спрашивают: «Где Салли будет искать свой шарик»? Согласно данным исследований с использованием заданий на понимание ложных убеждений, дети младше 4 лет, как правило, не могут правильно решить эту задачу.



Недавние исследования показывают, что за последние пару лет нейросети "поумнели", и начали решать такие задачи - и даже более сложные, с которыми должны справляться 7-летние дети. Не нужно думать, что они просто выучили решения - задачи писались с нуля и вслепую учёными, которым даже не сказали, что будут показывать это языковым моделям. Причём задач для оценки используют больше, чем для детей - то есть точность оценки должна быть достаточно высокой, не то чтобы это на 1-3 задачках так получилось.



Исследователи из Стэнфорда заключают следующее: у людей такие ответы будут интерпретироваться как свидетельство способности приписывать ненаблюдаемым ментальным состояниям и предвидеть результирующие действия (то есть обладать ToM).



Вот что интересно: исследование 2009го года, анализируя глухих, общающихся языком жестов, пришли к выводу, что изучение языка, в дополнение к социальному опыту, способствует развитию ToM - а ведь мы сейчас пытаемся разобраться с ЯЗЫКОВЫМИ моделями вроде GPT-4.



(спасибо Богдану за саммари) Сейчас ответ на вопрос "обладает ли уже GPT сознанием?" разнится даже у создателей ChatGPT: от "very, very likely not be conscious" (Sam Altman) – до "slightly conscious" (Ilya Sutskever). Основная проблема - мы не знаем, как именно определить сознание, интеллект, способность размышлять. Существуют разные тесты (многие из которых GPT-4 проходит очень хорошо...😩), и будут появляться новые. Всё больше философов и психологов будут пытаться работать не только с людьми, но и с машинами - как минимум для того, чтобы понять, чем же мы отличаемся, и в чём наша уникальность.



Мысли из этого видео.