Нейросеть-предатель: алгоритм обучили выявлять тексты-подделки



Алгоритмы искусственного интеллекта позволяют генерировать текст достаточно убедительный для того, чтобы обмануть обычного человека. Для этого они используют языковые модели, на основе которых компьютер может научиться предсказывать следующее слово в заданном контексте.



Опасность этой технологии заключается в том, что она открывает большие возможности для поточного создания фейковых новостей, отзывов или аккаунтов в социальных сетях. К счастью, алгоритмы ИИ теперь могут и распознавать фейковый текст.



Исследователи Гарвардского университета и лаборатории MIT-IBM Watson AI Lab на основе открытого OpenAI кода разработали инструмент для распознавания текста, сгенерированного с помощью искусственного интеллекта — (the Giant Language Model Test Room, GLTR).



GLTR анализирует текст с точки зрения вероятности появления одних слов после других и для визуализации работы алгоритма подсвечивает их разными цветами. Так, статистически наиболее вероятные слова (топ-10) подсвечиваются зеленым; менее вероятные — желтым (100) и красным (1000); наименее — фиолетовым.



Так, при анализе статьи о предсказуемости результата CRISPR редактирования, опубликованной в журнале «Nature», инструмент выдает значительно большее количество красных и фиолетовых слов, что является маркером текста, написанного человеком.



«Наша цель — создать системы для сотрудничества человека и искусственного интеллекта», — говорит аспирант Себастьян Германн, один из разработчиков GLTR. А протестировать систему распознавания автоматически сгенерированных текстов можно здесь.



Екатерина Смирнова