Вчера показал вам, как генерировать сотни «Пацанских цитат», да #промпт простой. Хотя, это даже не промпт, а техника, называется - Few-Shot Prompting, когда языковой модели предоставляется несколько примеров и просьба продолжить в том же духе. А вообще таких техник десятки. Сегодня расскажу об основных. Сохраните себе в закладки, чтобы не потерять.
1. Zero-Shot Prompting (Обучение без примеров) — метод, при котором модель обучается без предоставления специфических примеров. Она должна ответить на запрос, опираясь только на свои внутренние знания.
Пример:
2. Few-Shot Prompting (Обучение на небольшом количестве примеров) — метод, при котором модель обучается на небольшом количестве примеров, чтобы научиться выполнять конкретную задачу.
Пример:
3. Chain-of-Thought Prompting (Цепочка мыслей) — метод, при котором модель генерирует последовательность идей или мыслей, чтобы ответить на запрос.
Пример:
4. Self-Consistency (Самосогласованность) — метод, при котором модель стремится к последовательности и согласованности в своих ответах, чтобы создать когерентную и последовательную информацию.
Пример:
5. Generated Knowledge Prompting (Создание знаний) — метод, при котором модель использует знания, полученные во время обучения, для создания новых идей или концепций.
Пример:
6. Tree of Thoughts (Дерево мыслей) — в отличие от традиционного подхода "Цепочка мыслей" (CoT), где модель последовательно генерирует текст, подход "Дерево мыслей" (ToT) позволяет языковой модели выполнять обдуманные решения, рассматривая несколько разных путей рассуждения и самооценивая варианты для выбора следующего курса действий, а также возвращаться назад если это необходимо. Вот тут отдельный пост про это
#промпт #Промптинг #Лайфхаки
Силиконовый мешок
1. Zero-Shot Prompting (Обучение без примеров) — метод, при котором модель обучается без предоставления специфических примеров. Она должна ответить на запрос, опираясь только на свои внутренние знания.
Пример:
•
Промпт: "Переведи текст 'Hello, world!' на русский язык."
•
Ответ: "Привет, мир!"
2. Few-Shot Prompting (Обучение на небольшом количестве примеров) — метод, при котором модель обучается на небольшом количестве примеров, чтобы научиться выполнять конкретную задачу.
Пример:
•
Промпт: "Перевод 1: 'Hello, world!' -> 'Привет, мир!'; Перевод 2: 'Goodbye, friend.' -> 'До свидания, друг.'; Переведи текст 'Good morning, universe!' на русский язык."
•
Ответ: "Доброе утро, вселенная!"
3. Chain-of-Thought Prompting (Цепочка мыслей) — метод, при котором модель генерирует последовательность идей или мыслей, чтобы ответить на запрос.
Пример:
•
Промпт: "Создай историю о принцессе и драконе."
•
Ответ: "Однажды, в далеком королевстве..."
4. Self-Consistency (Самосогласованность) — метод, при котором модель стремится к последовательности и согласованности в своих ответах, чтобы создать когерентную и последовательную информацию.
Пример:
•
Промпт: "Какого цвета небо?"
•
Ответ: "Небо обычно синего цвета."
•
Промпт: "А цвет моря?"
•
Ответ: "Цвет моря также обычно синий, поскольку оно отражает цвет неба."
5. Generated Knowledge Prompting (Создание знаний) — метод, при котором модель использует знания, полученные во время обучения, для создания новых идей или концепций.
Пример:
•
Промпт: "Каковы последствия глобального потепления?"
•
Ответ: "Глобальное потепление может привести к ряду негативных последствий, включая увеличение уровня моря, изменение климатических условий..."
6. Tree of Thoughts (Дерево мыслей) — в отличие от традиционного подхода "Цепочка мыслей" (CoT), где модель последовательно генерирует текст, подход "Дерево мыслей" (ToT) позволяет языковой модели выполнять обдуманные решения, рассматривая несколько разных путей рассуждения и самооценивая варианты для выбора следующего курса действий, а также возвращаться назад если это необходимо. Вот тут отдельный пост про это
#промпт #Промптинг #Лайфхаки
Силиконовый мешок