«Алгоритмические манипуляции»
«В 2012 году один из самых громких экспериментов по массовой алгоритмической манипуляции (сотни тысяч пользователей) провели в Facebook – и доказали, что регулируя количество позитивного и негативного контента в лентах пользователей, ИИ может изменять психологическое состояние пользователей в позитивную или негативную стороны.
В 2010-х Марк Цукерберг говорил: «Белочка, умирающая перед вашим домом, может быть более релевантной вашим интересам, чем люди, умирающие в Африке», — украинцам, полтора года воюющим на информационном фронте за “релевантность украинского вопроса”, не надо объяснять, насколько важна алгоритмическая власть такого рода. Релевантность контента выполняет двойную функцию: с одной стороны, это характеристика контента, который может заинтересовать конкретного пользователя, с другой, – это соответствие контента интересам манипулятора (будь то рекламодатель, пришедший в соцсеть, чтобы продать свой продукт, или же сама соцсеть, которой нужно улучшать свои показатели вовлечения пользователей).
В разговоре с Ювалем Харари Цукерберг так описывает механизм управления предпочтениями и действиями пользователей: в Facebook точно знают, что увеличить время, проведенное пользователями на их платформе, можно, приказав алгоритмам соцсети показывать больше контента вроде смешных песиков и странных котиков, заснятых и выложенных в сеть их владельцами.
Алгоритмические манипуляции соцсетей, которым мы подвергаемся уже не первое десятилетие, держатся на взаимодействии двух сторон:
Чтобы этот механизм работал, ИИ должен знать своего пользователя: его предпочтения, интересы, привычки и множество других характеристик, позволяющих точно подобрать контент. Кроме постоянных характеристик пользователя, ИИ также часто “понимает” текущее психологическое состояние пользователя: его настроение, уровень стресса, доминирующие сейчас эмоции.
В конце нулевых Google, чтобы определить, какой цвет текста больше всего привлекает пользователей и заставляет их кликать на рекламные ссылки, протестировала на тысячах пользователей 42 оттенка синего. Тесты показали, что легкий фиолетовый оттенок синей ссылки сподвигает пользователей чаще кликать на рекламу – результаты этого эксперимента, по словам одного из топ-менеджеров компании, увеличили прибыль компании на $200 млн в год. Без использования креативности рекламщиков и проницательности маркетологов Google определил массовые предпочтения людей, о которых большинство из них даже не подозревало.
10 лет спустя, в 2016 году, аналогичную технику в промышленных масштабах использовала компания Cambridge Analytica (CA), которая сенсационно помогла Дональду Трампу стать президентом благодаря циничному и массовому использованию алгоритмических манипуляций. Вот что рассказывает топ-менеджер компании Бриттани Кайзер: «CA хотела убедить избирателей, показывая им рекламу, резонирующую с их личностью. Чтобы понять, что сработает для этих целей лучше всего, разработчики компании построили ИИ-систему, способную автоматически тестировать сотни, даже тысячи вариантов рекламы, прежде чем решить, какую именно запускать в массы». Алгоритмы определяли десятки параметров рекламных изображений, изменяя даже такие детали как оттенок пуговиц на рубашке Трампа для более эффективной политической манипуляции»
Это отрывок из десятой колонки для «Заборони», где я также рассказываю:
– о манипуляциях на основе психопрофиля пользователя
– о политических последствиях алгоритмических манипуляций
– про ии-ангелов и ии-дьяволят
«В 2012 году один из самых громких экспериментов по массовой алгоритмической манипуляции (сотни тысяч пользователей) провели в Facebook – и доказали, что регулируя количество позитивного и негативного контента в лентах пользователей, ИИ может изменять психологическое состояние пользователей в позитивную или негативную стороны.
В 2010-х Марк Цукерберг говорил: «Белочка, умирающая перед вашим домом, может быть более релевантной вашим интересам, чем люди, умирающие в Африке», — украинцам, полтора года воюющим на информационном фронте за “релевантность украинского вопроса”, не надо объяснять, насколько важна алгоритмическая власть такого рода. Релевантность контента выполняет двойную функцию: с одной стороны, это характеристика контента, который может заинтересовать конкретного пользователя, с другой, – это соответствие контента интересам манипулятора (будь то рекламодатель, пришедший в соцсеть, чтобы продать свой продукт, или же сама соцсеть, которой нужно улучшать свои показатели вовлечения пользователей).
В разговоре с Ювалем Харари Цукерберг так описывает механизм управления предпочтениями и действиями пользователей: в Facebook точно знают, что увеличить время, проведенное пользователями на их платформе, можно, приказав алгоритмам соцсети показывать больше контента вроде смешных песиков и странных котиков, заснятых и выложенных в сеть их владельцами.
Алгоритмические манипуляции соцсетей, которым мы подвергаемся уже не первое десятилетие, держатся на взаимодействии двух сторон:
•
Алгоритмов технокорпораций (они выбирают из обилия доступной в сетях информации определенный контент для пользователя), •
и создателей контента (они ориентируются на популярные в соцсетях темы, определяемые алгоритмами, и предоставляют алгоритмам нужный материал для заполнения пользовательских лент). Чтобы этот механизм работал, ИИ должен знать своего пользователя: его предпочтения, интересы, привычки и множество других характеристик, позволяющих точно подобрать контент. Кроме постоянных характеристик пользователя, ИИ также часто “понимает” текущее психологическое состояние пользователя: его настроение, уровень стресса, доминирующие сейчас эмоции.
В конце нулевых Google, чтобы определить, какой цвет текста больше всего привлекает пользователей и заставляет их кликать на рекламные ссылки, протестировала на тысячах пользователей 42 оттенка синего. Тесты показали, что легкий фиолетовый оттенок синей ссылки сподвигает пользователей чаще кликать на рекламу – результаты этого эксперимента, по словам одного из топ-менеджеров компании, увеличили прибыль компании на $200 млн в год. Без использования креативности рекламщиков и проницательности маркетологов Google определил массовые предпочтения людей, о которых большинство из них даже не подозревало.
10 лет спустя, в 2016 году, аналогичную технику в промышленных масштабах использовала компания Cambridge Analytica (CA), которая сенсационно помогла Дональду Трампу стать президентом благодаря циничному и массовому использованию алгоритмических манипуляций. Вот что рассказывает топ-менеджер компании Бриттани Кайзер: «CA хотела убедить избирателей, показывая им рекламу, резонирующую с их личностью. Чтобы понять, что сработает для этих целей лучше всего, разработчики компании построили ИИ-систему, способную автоматически тестировать сотни, даже тысячи вариантов рекламы, прежде чем решить, какую именно запускать в массы». Алгоритмы определяли десятки параметров рекламных изображений, изменяя даже такие детали как оттенок пуговиц на рубашке Трампа для более эффективной политической манипуляции»
Это отрывок из десятой колонки для «Заборони», где я также рассказываю:
– о манипуляциях на основе психопрофиля пользователя
– о политических последствиях алгоритмических манипуляций
– про ии-ангелов и ии-дьяволят