Страдания робота Вертера
В старом советском фильме «Гостья из будущего» одна из самых душераздирающих сцен — гибель робота-андроида Вертера. Во всех эпизодах он двигается и говорит нарочито механически, но его смерть вызывает неподдельную грусть. И неспроста — если робот при взаимодействии с нами имитирует эмоции, мы начинаем воспринимать его как личность.
🤖 Группа психологов из Италии провела серию экспериментов с гуманоидным роботом iCub. В мире существует всего пара десятков таких машин. Их разрабатывает международный консорциум The RobotCub Project. Все они предназначены для исследований взаимодействия людей с антропоморфными машинами.
🦾 iCub метр высотой и в общих чертах повторяет геометрию человеческого тела. С помощью подвижных глаз и световых индикаторов на месте бровей и рта он способен имитировать мимику. Его пятипалые руки позволяют воспроизводить сложные жесты, а набор сервоприводов в ногах и теле — разнообразные позы.
🧑🏻💼👨🏻💼 Для общения с роботом были отобраны 119 добровольцев. До и после эксперимента они заполняли опросник Intentional Stance Test (IST), разработанный психологами несколько лет назад. Испытуемым требовалось ответить — из каких побуждений действуют роботы, запечатленные в различных бытовых ситуациях.
❤️⚙️ Вариантов ответа всегда два. Первый подразумевает чисто рациональный выбор машины. Второй же исходит из наличия у неё интенций и желаний. Например, изображение на котором робот выбирает один из разложенных перед ним инструментов, предлагается интерпретировать как
☺️ Испытуемых поделили на две группы. Членов экспериментальной робот встречал и радостно приветствовал, представлялся сам и знакомился с ними, удерживая зрительный контакт. Затем волонтёры просматривали совместно с iCub несколько коротких документальных фильмов. При этом робот бурно реагировал на происходящее на экране, изображая в соответствующих моментах радость или грусть.
😐 А вот с контрольной группой машина вела холодно и механистично. Во время сеанса iCub никак не реагировал на происходящее, не изображал эмоций, лишь периодически издавал компьютерное «пиканье».
📑 После сеансов испытуемые из обеих групп вновь отвечали на вопросник с интерпретацией намерений робота. Выяснилось, что те, кто взаимодействовал с демонстрировавшей живые и эмоциональные «антропоморфные» реакции машиной, намного чаще оценивали её действия как намеренные. Тогда как члены контрольной группы, наоборот, считали их запрограммированными.
🫂 По мнению психологов, это показывает, что совместное переживание эмоций заставляет людей считать роботов наделенными личностью, собственными потребностями и желаниями. Это подчеркивает важность имитации эмоций для роботов-компаньонов, занятых, например, поддержкой одиноких и престарелых людей.
❓ Но кажется, данные результаты могут внести ясность и в недавние дискуссии о «разумности» языковой модели LaMDA. Напомним, что работавший с ней в Google инженер Блейк Лемойн объявил систему разумной личностью. Возможно, он просто слишком долго взаимодействовал с чатботом, способным достоверно имитировать живую речь и человеческие эмоциональные реакции.
Почитать подробнее: научная статья в Technology, Mind, and Behavior.
#Робототехника, #Цифровизация_и_общество, #Психология_общения_с_роботами
В старом советском фильме «Гостья из будущего» одна из самых душераздирающих сцен — гибель робота-андроида Вертера. Во всех эпизодах он двигается и говорит нарочито механически, но его смерть вызывает неподдельную грусть. И неспроста — если робот при взаимодействии с нами имитирует эмоции, мы начинаем воспринимать его как личность.
🤖 Группа психологов из Италии провела серию экспериментов с гуманоидным роботом iCub. В мире существует всего пара десятков таких машин. Их разрабатывает международный консорциум The RobotCub Project. Все они предназначены для исследований взаимодействия людей с антропоморфными машинами.
🦾 iCub метр высотой и в общих чертах повторяет геометрию человеческого тела. С помощью подвижных глаз и световых индикаторов на месте бровей и рта он способен имитировать мимику. Его пятипалые руки позволяют воспроизводить сложные жесты, а набор сервоприводов в ногах и теле — разнообразные позы.
🧑🏻💼👨🏻💼 Для общения с роботом были отобраны 119 добровольцев. До и после эксперимента они заполняли опросник Intentional Stance Test (IST), разработанный психологами несколько лет назад. Испытуемым требовалось ответить — из каких побуждений действуют роботы, запечатленные в различных бытовых ситуациях.
❤️⚙️ Вариантов ответа всегда два. Первый подразумевает чисто рациональный выбор машины. Второй же исходит из наличия у неё интенций и желаний. Например, изображение на котором робот выбирает один из разложенных перед ним инструментов, предлагается интерпретировать как
«Он возьмет ближайший»
или «Ему очень нравится пользоваться инструментами»
.☺️ Испытуемых поделили на две группы. Членов экспериментальной робот встречал и радостно приветствовал, представлялся сам и знакомился с ними, удерживая зрительный контакт. Затем волонтёры просматривали совместно с iCub несколько коротких документальных фильмов. При этом робот бурно реагировал на происходящее на экране, изображая в соответствующих моментах радость или грусть.
😐 А вот с контрольной группой машина вела холодно и механистично. Во время сеанса iCub никак не реагировал на происходящее, не изображал эмоций, лишь периодически издавал компьютерное «пиканье».
📑 После сеансов испытуемые из обеих групп вновь отвечали на вопросник с интерпретацией намерений робота. Выяснилось, что те, кто взаимодействовал с демонстрировавшей живые и эмоциональные «антропоморфные» реакции машиной, намного чаще оценивали её действия как намеренные. Тогда как члены контрольной группы, наоборот, считали их запрограммированными.
🫂 По мнению психологов, это показывает, что совместное переживание эмоций заставляет людей считать роботов наделенными личностью, собственными потребностями и желаниями. Это подчеркивает важность имитации эмоций для роботов-компаньонов, занятых, например, поддержкой одиноких и престарелых людей.
❓ Но кажется, данные результаты могут внести ясность и в недавние дискуссии о «разумности» языковой модели LaMDA. Напомним, что работавший с ней в Google инженер Блейк Лемойн объявил систему разумной личностью. Возможно, он просто слишком долго взаимодействовал с чатботом, способным достоверно имитировать живую речь и человеческие эмоциональные реакции.
Почитать подробнее: научная статья в Technology, Mind, and Behavior.
#Робототехника, #Цифровизация_и_общество, #Психология_общения_с_роботами