OpenAI выпустило функцию fine tuning (тонкой настройки или "дообучения") GPT-3.5 Turbo. Для GPT-4 она появится осенью. Это обновление позволяет разработчикам настраивать модели так, чтобы они лучше справлялись с конкретными задачами, а также с легкостью масштабировать их. Первые тесты показали, что тонко настроенная версия GPT-3.5 Turbo может соперничать или даже превосходить базовые возможности GPT-4 в узких задачах. Данные, отправляемые в API тонкой настройки и из него, принадлежат клиенту и не используются OpenAI или другими организациями для обучения других моделей.



Вот несколько кейсов использования тонкой настройки, приводимых OpenAI:



1. Улучшение управляемости: Позволяет модели лучше следовать инструкциям, например, кратко отвечать или всегда реагировать в определенном тоне или на определенном языке.

2. Более надежной форматирование вывода: Для задач, требующих определенный формат ответа, тонкая настройка улучшает способность модели одинаково их форматировать.

3. Индивидуальный тон: Позволяет точно настраивать качественное ощущение от вывода модели, чтобы оно лучше соответствовало голосу бренда.



Также тонкая настройка позволяет пользователям существенно сократить размер запросов, обеспечивая аналогичное качество. Размер контекстного окна при работе с тонкой настройкой увеличен вдвое - до 4к токенов. По словам OpenAI первые пользователи смогли сократить размер запросов на 90%



Тонкая настройка наиболее эффективна, когда сочетается с другими методами, такими как инженерия запросов, извлечение информации и вызов функций. Подробнее можно узнать в руководстве по тонкой настройке.



Midjourney prompt: vibrant carricature of fine tuning in black and white brush strokes