WSJ написал, что OpenAI тестирует систему водяных знаков для своих, сгенерённых текстов. Инструмент позволит (например учителям) определять работы выполненные ботом. По словам компании 4 из 5 опрошенных поддерживают идею таких отметок. В тоже время почти 30% всё тех же опрошенных сказали что с отметками будут использовать ChatGPT меньше. Так что очень очень спорно.



Как это работает?



1. Модификация выбора слов: OpenAI вносит небольшие изменения в то, как ChatGPT выбирает слова при генерации текста. Эти изменения создают особый узор или последовательность слов, который становится уникальной "подписью" текста, сгенерированного AI.



2.
Обнаружение: Для обнаружения этой подписи разработан специальный инструмент, который анализирует текст на наличие этой уникальной последовательности слов. Если система обнаруживает узор, она может с высокой степенью вероятности утверждать, что текст был сгенерирован с помощью ChatGPT.



После публикации, OpenAI также обновила свой майский блог-пост, посвящённый исследованию обнаружения контента, созданного искусственным интеллектом. В обновлении говорится, что текстовые водяные знаки оказались "высокоточными и даже эффективными против локализованных вмешательств, таких как перефразирование", но оказались "менее устойчивыми против глобализированных вмешательств, таких как использование систем перевода, переформулирование с помощью другой генеративной модели, или просьба модели вставить специальный символ между каждым словом, а затем удалить этот символ".



Сергей Булаев AI 🤖 - об AI и не только