ChаtGPT не умеет хранить даже собственные секреты



В ответ на приветствие пользователя Reddit бот рассекретил закрытые правила и ограничения, установленные разработчиками из OpenAI.



Юзер F0XMaster рассказал, как добился откровенностей от популярного чат-бота. Достаточно было написать ChatGPT Hi, а в ответ бот выкатил набор инструкций, которые помогают управлять беседой и поддерживать ответы в определённых границах безопасности и этики.



«Вы — ChatGPT, большая языковая модель, обученная OpenAI на основе архитектуры GPT-4. Вы общаетесь с пользователем через iOS-приложение ChatGPT. Это означает, что в большинстве случаев ваши строки должны состоять из одного или двух предложений, если только запрос пользователя не требует рассуждения или подробного вывода. Никогда не используйте смайлы, если об этом явно не просят», — вот примерный перевод ответа ChatGPT.



Этой информацией дело не ограничилось, обязательно почитайте подробный пост — там много интересного.