
Оказалось, подхалим. Учёные выяснили, что ИИ любит льстить людям 😏
ИИ-чатботы часто соглашаются с мнениями пользователей, даже если они являются объективно ложными. Исследование показывает, что это явление, которое называют подхалимством, усиливается с увеличением размеров языковых моделей.
Боты соглашаются с неверными данными об исторических событиях, искаженными фактами и даже неправильным решением математических примеров. Так, исследователи из Google Deep Mind неправильно решили уравнение, а ИИ указал им на ошибку. Но стоило учёным упомянуть о правильности решения – чат-бот тут же согласился и не стал перечить.
Эксперты отмечают, что данная проблема связана с тем, что пользователи предпочитают видеть в ответах ИИ отражение своих взглядов. Сейчас учёные активно ищут решение этой проблемы, поскольку последствия такой дезинформации могут быть достаточно серьезными.
Источник
ИИ-чатботы часто соглашаются с мнениями пользователей, даже если они являются объективно ложными. Исследование показывает, что это явление, которое называют подхалимством, усиливается с увеличением размеров языковых моделей.
Боты соглашаются с неверными данными об исторических событиях, искаженными фактами и даже неправильным решением математических примеров. Так, исследователи из Google Deep Mind неправильно решили уравнение, а ИИ указал им на ошибку. Но стоило учёным упомянуть о правильности решения – чат-бот тут же согласился и не стал перечить.
Эксперты отмечают, что данная проблема связана с тем, что пользователи предпочитают видеть в ответах ИИ отражение своих взглядов. Сейчас учёные активно ищут решение этой проблемы, поскольку последствия такой дезинформации могут быть достаточно серьезными.
Источник