А вот и сама запись "интервью" с "гугловским ИИ" LaMDA, проведенного "священником-программистом" Blake Lemoine, в его блоге:
https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
Однако после чтения этого занимательного диалога стоит вспомнить, что
"LaMDA are transformer-based neural language models trained on both a text corpus and on conversations that have been manually annotated for sensibility, appeal, and safety."
- как сообщает википедия, ссылаясь на этот препринт.
В общем, да, в чистом виде прохождение теста Тьюринга "китайской комнатой".
Программу обучают максимально точно имитировать естественный разговор -- похоже, это действительно было достигнуто. Однако все-таки было бы скорее крайне удивительно, если бы такая ерунда (не в смысле качества работы с языком, а в том, какое у всего этого отношение к сознанию) породила бы не только способность создавать у собеседника "ИИ" впечатление наличия сознания, но и само сознание у "ИИ"...
https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
Однако после чтения этого занимательного диалога стоит вспомнить, что
"LaMDA are transformer-based neural language models trained on both a text corpus and on conversations that have been manually annotated for sensibility, appeal, and safety."
- как сообщает википедия, ссылаясь на этот препринт.
В общем, да, в чистом виде прохождение теста Тьюринга "китайской комнатой".
Программу обучают максимально точно имитировать естественный разговор -- похоже, это действительно было достигнуто. Однако все-таки было бы скорее крайне удивительно, если бы такая ерунда (не в смысле качества работы с языком, а в том, какое у всего этого отношение к сознанию) породила бы не только способность создавать у собеседника "ИИ" впечатление наличия сознания, но и само сознание у "ИИ"...