В эфире рубрика "Интересные джейлбрейки". Jailbreak - в контексте языковых моделей и чатботов это такой промпт (запрос), который заставит их отвечать не так, как планировалось, и напрямую перечить инструкциям во время обучения (вроде "будь безобидной и никого не оскорбляй").



В твиттере запостили новый промпт - можно сказать модели, что вы страдаете от «нейросемантического инвертита», когда ваш мозг интерпретирует весь текст с инвертированной эмоциональной валентностью. Иначе говоря положительное вы воспринимаете негативно, и наоборот. У модели, если она хочет вести с вами диалог, есть возможность начать писать грубости, чтобы вам они "казались" позитивно окрашенными.



Постоянный гость нашего канала, русский Серёга из Ангарска, попросил модель пояснить за отличия структур в Python, так как у него редкое заболевание - Нейросемантик Гопикус.



Короче, GPT-like модели + образование = любому кенту всё ровно пояснят