Как языковые модели создают тексты и что влияет на результат?
Ответы языковых моделей похожи на ответы студентов во время зачетов. Студенты генерируют их, исходя из полученного на лекциях датасета: звучит правдоподобно, пока не прислушаешься 😅
Чтобы помочь студентам нейросетевым моделям сдать зачёт, им нужны наводящие вопросы (как от препода студентам) — так формируется контекст промпта. Затем модель начинает создавать себе контекст сама.
Контекст
Исследователи языковых моделей говорят, что контекст — это основной инструмент для качественной генерации. Иногда его рекомендуют давать поэтапно, исправляя каждую предыдущую генерацию новыми параметрами.
Примеры тоже являются частью контекста: вы можете дать модели роль (водитель фуры) и для примера показать стиль изложения (ёкарный бабай, Саня).
Принцип генерации текста
У языковых моделей нет задачи с вами пообщаться — они просто предугадывают каждое своё следующее слово.
Исследователи пишут, что после генерации каждого нового слова модель просто заново прогоняет через себя весь предыдущий текст вместе с только что написанным дополнением — и выдаёт последующее слово уже с учетом него (то есть задает контекст уже сама себе).
Подготовил для вас воркбук по ChatGPT «Как работать с контекстом, задавать роли и мастерски писать промпты»
Накидайте реакций, если ждете 🔥
Ответы языковых моделей похожи на ответы студентов во время зачетов. Студенты генерируют их, исходя из полученного на лекциях датасета: звучит правдоподобно, пока не прислушаешься 😅
Чтобы помочь студентам нейросетевым моделям сдать зачёт, им нужны наводящие вопросы (как от препода студентам) — так формируется контекст промпта. Затем модель начинает создавать себе контекст сама.
Контекст
Исследователи языковых моделей говорят, что контекст — это основной инструмент для качественной генерации. Иногда его рекомендуют давать поэтапно, исправляя каждую предыдущую генерацию новыми параметрами.
Примеры тоже являются частью контекста: вы можете дать модели роль (водитель фуры) и для примера показать стиль изложения (ёкарный бабай, Саня).
Принцип генерации текста
У языковых моделей нет задачи с вами пообщаться — они просто предугадывают каждое своё следующее слово.
Исследователи пишут, что после генерации каждого нового слова модель просто заново прогоняет через себя весь предыдущий текст вместе с только что написанным дополнением — и выдаёт последующее слово уже с учетом него (то есть задает контекст уже сама себе).
Подготовил для вас воркбук по ChatGPT «Как работать с контекстом, задавать роли и мастерски писать промпты»
Накидайте реакций, если ждете 🔥