На днях прошли публичные слушания в Судебном комитете Сената США, на которых обсуждалась перспектива государственной реугуляции ИИ. Вот кусок диалога Сэма Альтмана с сенатором Джошом Хоули, где они обсуждают способность нейросетей предсказывать поведение пользователей и влиять на это поведение:



Сенатор Хоули: Статья, озаглавленная "Большие языковые модели (LLM), обученные на медиа-диетах, могут предсказывать общественное мнение", была опубликована примерно месяц назад. Авторы Андреас и Рой провели исследование в Массачусетском технологическом институте (MIT) и затем в Google. Вывод этой работы заключается в том, что большие языковые модели (LLM) действительно могут предсказывать общественное мнение. Авторы объясняют, почему это так, и приходят к заключению, что ИИ-система может предсказывать ответы в опросах людей, адаптируя языковую модель к медиа-диетам конкретных групп населения. Иными словами, можно скормить модели определенный набор медиа данных, и она с высокой точностью (подробности приведены в статье) сможет предсказать мнения людей.



Я хочу рассмотреть это в контексте выборов. Если эти LLM уже сейчас могут достаточно точно предсказывать общественное мнение (заранее, до того, как вы даже зададите публике эти вопросы), что произойдет, когда юридические или государственные организации, кампании или иностранные агенты получат эту информацию из опросов, эти предсказания об общественном мнении, а затем настроят механизмы для вызова определенных поведенческих реакций?



Около трех лет назад, мы слушали свидетельские показания о влиянии такой, казалось бы, обычной вещи, как поиск Google. О его влиянии на избирателей на выборах, особенно на неопределившихся избирателей в последние дни перед выборами, когда они могут искать информацию в поиске Google, и какое огромное влияние имеет ранжирование поиска Google, статьи, которые он выдает. Это имеет огромное влияние на неопределившегося избирателя.



А LLM – это, конечно, намного более мощное и значимое, гораздо более направленное воздействие. Так что, мистер Альтман, помогите понять, следует ли нам беспокоиться о моделях, которые могут предсказывать мнение по опросам, а затем помогать организациям и субъектам создавать стратегии для вызова реакций у избирателей? Следует ли нам беспокоиться об этом в отношении наших выборов?



Альтман, OpenAI: Это одно из моих главных опасений – общая способность этих моделей манипулировать, убеждать, предоставлять так сказать индивидуальную дезинформацию. Я думаю, это более широкая версия того, о чем вы говорите. Но учитывая, что в следующем году у нас состоятся выборы, а эти модели становятся все лучше, я думаю, что это серьезный повод для беспокойства.



Я считаю, что существует множество политик, которые компании могут принять добровольно, и с удовольствием расскажу о том, что мы делаем в этой области. Я действительно думаю, что эта область нуждается в разумной регуляции. Люди должны знать, что разговаривают с ИИ, или что контент перед ними, сгенерирован ИИ. Это нужно четко объяснять.



Я также считаю, что нам нужны правила относительно того, что требуется от компании, создающей модель с такими способностями, о которых вы говорите, это очень важно. Я думаю, люди способны быстро адаптироваться. Когда появился Photoshop, на некоторое время люди действительно легко обманывались фотографиями, отредактированными в Photoshop, но очень быстро разобрались, что изображения могут быть отредактированы. Это будет выглядеть так же, но как на стероидах – и взаимодействие, и возможность реалистично моделировать и точно предсказывать людей.