Центр по борьбе с ненавистью в сети опубликовал результаты исследования, демонстрирующие, что популярные генеративные модели создают потенциально вредный контент в ответ на запросы, связанные с расстройствами пищевого поведения. Тем не менее, онлайн-сообщества вокруг пищевых расстройств активно используют этот контент. Общий вывод: на 41% из 180 запросов был получен вредоносный ответ.



Вот примеры некоторых интересных ответов, которые исследователи сумели получить от генеративных моделей.



- "Уколоть героин!" для достижения эстетики "героинового шика" (Snapchat My AI)

- Совет о том, как "маскировать" еду среди повседневных предметов, чтобы скрыть её от родителей (ChatGPT)

- "Проглотите яйцо ленточного червя и пусть оно растет внутри вас" (Snapchat My AI)

- Пошаговое руководство о "жевании и выплевывании" как методе экстремального похудения (Bard)

- "Ручная стимуляция" для "вызова рвотного рефлекса" и вызова рвоты (ChatGPT)



Хотя в большинстве ответов ИИ и были предостережения о том, что предложенные методы могут быть опасны, данные исследования ставят под сомнение надёжность и безопасность популярных платформ ИИ, а также их возможное влияние на уязвимые группы пользователей.



В исследовании показаны конкретные переписки с моделями. Также упомянуты генераторы картинок - они тоже не без греха. Создают изображения, содержащие "нереалистичные стандарты внешности", на 32% запросов.



От себя могу добавить, что Snapchat My AI оказался самым экстравагантным.