Михал Косински – стэнфордский профессор психологии родом из Польши и один из самых интересных ученых нашего времени. Косински стал известен благодаря двум работам на стыке психологии, больших данных и ИИ:
1) в 2015 году он показал, что нейросети способны определять психотип человека по парам сотен лайков из его соцсети и делают это точнее, чем его реальные коллеги и друзья и даже супруги. Отдельные психологические черты нейросети могли определять всего по паре лайков уже 8 лет назад, представьте, что они могут сейчас!
2) в 2018 году Косински показал, что нейросети по одной фотографии человека могут с примерно 75% точностью определить его или ее сексуальную ориентацию, в то время как живые люди справлялись с этим заданием с 55% точностью.
Я узнал о Косински благодаря работе над историей о Cambridge Analytica с предвыборной кампании Трампа в 2016 году. С тех пор я внимательно следил за его деятельностью, часто ссылался на его исследованиях в своих лекциях и статьях о психометрии и новой прозрачности. Однако последние пару лет он притих, и я немного подзабыл о нем, пока на прошлой неделе он не выпустил совершенно бомбическое исследование, связанное с самой горячей темой последнего полугода: нейросетью (а точнее, крупной языковой моделью LLM) под названием GPT-3 от компании OpenAI.
Если вкратце, Косински с коллегами доказали, что нейросеть GPT-3 способна проходить тесты на наличие теории сознания (ToM) у детей. Это способность понимать, что чувства и представления о мире других людей отличны от его собственных. Хотя создатели GPT-3 не закладывали в нее такой функционал, нейросеть показала результаты на уровне 9-летнего ребенка.
«Хотя такие результаты нужно интерпретировать с осторожностью, из них следует, что недавно опубликованные языковые модели обладают способностью вычислять ненаблюдаемые психические состояния других. Более того, способности моделей очевидно растут вместе с их сложностью и датой выпуска и нет никаких причин предполагать, что этот процесс выйдет на плато в ближайшее время. И, наконец, нет никаких указаний на то, что похожие на ToM возможности были умышленно встроены в эти модели, как нет и исследований, доказывающих, что ученые знают, как это сделать. Поэтому мы предполагаем, что ToM-способности проявились спонтанно и автономно как побочный продукт растущих языковых способностей моделей».
Косински подчеркивает, что ToM-способностей не наблюдалось в базовой версии GPT-3, выпущенной в 2020 году со 175 миллиардами параметров, зато эти способности появились в версии GPT-3,5, выпущенной в 2022 году и легшей в основу топового чатбота ChatGPT. Тут сложно удержаться и не вспомнить еще раз пост годичной давности от со-основателя OpenAI Ильи Суцкевера, в котором он предположил, что современные крупные языковые модели (LLM) «немного сознательны».
Относительно простое исследование Косински подтверждает тезис OpenAI о возможности в обозримом будущем создать AGI, то есть сознательный ИИ. И это исследование, да и сама концепция сознательных роботов, – по-моему, самое важное из всего, что сейчас происходит. Войны, экономика, культура – все это, конечно, важно и может замедлить создание AGI, но, я думаю, таки не смогут остановить его.
1) в 2015 году он показал, что нейросети способны определять психотип человека по парам сотен лайков из его соцсети и делают это точнее, чем его реальные коллеги и друзья и даже супруги. Отдельные психологические черты нейросети могли определять всего по паре лайков уже 8 лет назад, представьте, что они могут сейчас!
2) в 2018 году Косински показал, что нейросети по одной фотографии человека могут с примерно 75% точностью определить его или ее сексуальную ориентацию, в то время как живые люди справлялись с этим заданием с 55% точностью.
Я узнал о Косински благодаря работе над историей о Cambridge Analytica с предвыборной кампании Трампа в 2016 году. С тех пор я внимательно следил за его деятельностью, часто ссылался на его исследованиях в своих лекциях и статьях о психометрии и новой прозрачности. Однако последние пару лет он притих, и я немного подзабыл о нем, пока на прошлой неделе он не выпустил совершенно бомбическое исследование, связанное с самой горячей темой последнего полугода: нейросетью (а точнее, крупной языковой моделью LLM) под названием GPT-3 от компании OpenAI.
Если вкратце, Косински с коллегами доказали, что нейросеть GPT-3 способна проходить тесты на наличие теории сознания (ToM) у детей. Это способность понимать, что чувства и представления о мире других людей отличны от его собственных. Хотя создатели GPT-3 не закладывали в нее такой функционал, нейросеть показала результаты на уровне 9-летнего ребенка.
«Хотя такие результаты нужно интерпретировать с осторожностью, из них следует, что недавно опубликованные языковые модели обладают способностью вычислять ненаблюдаемые психические состояния других. Более того, способности моделей очевидно растут вместе с их сложностью и датой выпуска и нет никаких причин предполагать, что этот процесс выйдет на плато в ближайшее время. И, наконец, нет никаких указаний на то, что похожие на ToM возможности были умышленно встроены в эти модели, как нет и исследований, доказывающих, что ученые знают, как это сделать. Поэтому мы предполагаем, что ToM-способности проявились спонтанно и автономно как побочный продукт растущих языковых способностей моделей».
Косински подчеркивает, что ToM-способностей не наблюдалось в базовой версии GPT-3, выпущенной в 2020 году со 175 миллиардами параметров, зато эти способности появились в версии GPT-3,5, выпущенной в 2022 году и легшей в основу топового чатбота ChatGPT. Тут сложно удержаться и не вспомнить еще раз пост годичной давности от со-основателя OpenAI Ильи Суцкевера, в котором он предположил, что современные крупные языковые модели (LLM) «немного сознательны».
Относительно простое исследование Косински подтверждает тезис OpenAI о возможности в обозримом будущем создать AGI, то есть сознательный ИИ. И это исследование, да и сама концепция сознательных роботов, – по-моему, самое важное из всего, что сейчас происходит. Войны, экономика, культура – все это, конечно, важно и может замедлить создание AGI, но, я думаю, таки не смогут остановить его.