🤪 Почему генеративный ИИ ошибается?



Слово hallucinate (с англ. «галлюцинировать») стало словом 2023 года. В контексте ИИ это означает ситуации, когда нейросеть генерирует ложную и бессмысленную информацию. Рассказываем, почему это происходит, на примере больших языковых моделей (LLM), таких как GPT-4 или Claude 2.



😒 Как LLM ищут ответ и почему врут?



Большие языковые модели похожи на Т9, функцию автозаполнения в смартфонах, предсказывая следующее слово на основе предыдущих: например, после «привет» обычно идет фраза «как дела». Однако LLM более продвинуты: они обучаются на огромных объемах данных и учитывают весь контекст текста.



Хотя LLM умеют грамматически правильно строить предложения, они не осознают их смысл. Они подбирают слова, основываясь на вероятности и «случайно» выбирая самый подходящий вариант. Что происходит в это время внутри модели, мы не знаем — это «черный ящик».



Итак, LLM знают, как писать, но не понимают, о чем они пишут. Поэтому, когда ChatGPT выдает какую-то небывальщину, это означает, что LLM посчитала такой вариант сочетания слов наиболее подходящим, а не потому, что она «так думает».



Более подробное объяснение устройства LLM читайте здесь.



Что еще влияет на галлюцинации ИИ?



→ Ошибки, неточности и фейки в обучающих датасетах.



→ Неправильный контекст в запросе.



→ Недостаточная обученность или, напротив, переобучение.



👎 Как часто нейросети выдумывают?



Согласно исследованиям, ChatGPT выдумывает ~3% информации. Модели компании Meta ~5%. Claude 2 — 8%. Более старые — ошибаются чаще.



Что можно сделать с галлюцинациями?



→ Обратная связь — уязвимые темы должен прокомментировать человек. Этим занимаются компании-разработчики.



→ Грамотно составлять запросы, давая достаточно контекста. Смотрите памятку по написанию промптов.



CEO OpenAI Сэм Альтман считает, что проблему галлюцинаций решат в ближайшие 2 года, однако также добавил: «Существует баланс между креативностью и идеальной точностью, и модели придется учиться, когда вы захотите от нее того или другого».



@hiaimedia