
Ответы языковых моделей похожи на ответы студентов во время зачётов. Cтуденты генерируют их, исходя из полученного на лекциях датасета: звучит правдоподобно, пока не прислушаешься 😅
Чтобы помочьстудентам нейросетевым моделям сдать зачёт, им нужны наводящие вопросы (как от препода студентам) — так формируется контекст промпта. Затем модель начинает создавать себе контекст сама.
Контекст
Исследователи языковых моделей говорят, что контекст — это основной инструмент для качественной генерации. Иногда его рекомендуют давать поэтапно, исправляя каждую предыдущую генерацию новыми параметрами.
Примеры тоже являются частью контекста: вы можете дать модели роль (водитель фуры) и для примера показать стиль изложения (ёкарный бабай, Саня).
Принцип генерации текста
Как мы уже рассказывали, у языковых моделей нет задачи с вами пообщаться — они просто предугадывают каждое своё следующее слово.
Исследователи пишут, что после генерации каждого нового слова модель просто заново прогоняет через себя весь предыдущий текст вместе с только что написанным дополнением — и выдаёт последующее слово уже с учетом него (то есть задаёт контекст уже сама себе).
Как лучше подготовиться к общению с LLM?
Мы собрали для вас несколько шпаргалок о том, как можно писать промпты для больших языковых моделей. Перепишите мелким шрифтом, распечатайте и носите с собой!
Важно: этот пост про собирательный образ всех подобных моделей. Каждая рекомендация индивидуальна: метод проб и ошибок поможет вам эффективнее работать с LLM.
Чтобы помочь
Контекст
Исследователи языковых моделей говорят, что контекст — это основной инструмент для качественной генерации. Иногда его рекомендуют давать поэтапно, исправляя каждую предыдущую генерацию новыми параметрами.
Примеры тоже являются частью контекста: вы можете дать модели роль (водитель фуры) и для примера показать стиль изложения (ёкарный бабай, Саня).
Принцип генерации текста
Как мы уже рассказывали, у языковых моделей нет задачи с вами пообщаться — они просто предугадывают каждое своё следующее слово.
Исследователи пишут, что после генерации каждого нового слова модель просто заново прогоняет через себя весь предыдущий текст вместе с только что написанным дополнением — и выдаёт последующее слово уже с учетом него (то есть задаёт контекст уже сама себе).
Как лучше подготовиться к общению с LLM?
Мы собрали для вас несколько шпаргалок о том, как можно писать промпты для больших языковых моделей. Перепишите мелким шрифтом, распечатайте и носите с собой!