
Дообучить LLM (большую языковую модель) стало совсем просто!
Вышла новая версия LLaMA Factory
Достаточно простая установка, но в зависимости от ваших целей могут потребоваться внушительные ресурсы железа.
Но в сранении с ChatGLM's P-Tuning скорость обучения в 3.7 раз выше, а ресурсные затраты на GPU - немного ниже.
Различные модели: LLaMA, Mistral, Mixtral-MoE, Qwen, Yi, Gemma, Baichuan, ChatGLM, Phi и др.
Интегрированные методы: (непрерывное) предварительное обучение, контролируемая точная настройка, моделирование вознаграждения, PPO, DPO и ORPO.
Масштабируемые ресурсы: 32-битная полная настройка, 16-битная настройка с замораживанием, 16-битный LoRA и 2/4/8-битный QLoRA через AQLM/AWQ/GPTQ/LLM.int8.
Расширенные алгоритмы: GaLore, BAdam, DoRA, LongLoRA, LLaMA Pro, Mixture-of-Depths, LoRA+, LoftQ и настройка агента.
Практические приемы: FlashAttention-2, Unsloth, масштабирование RoPE, NEFTune и rsLoRA.
Более быстрый вывод: API в стиле OpenAI, пользовательский интерфейс Gradio и интерфейс командной строки с рабочим элементом vLLM.
Отлично подойдет для тестирования гипотез в разрезе ваших задач
@Unlim_AI
Вышла новая версия LLaMA Factory
Достаточно простая установка, но в зависимости от ваших целей могут потребоваться внушительные ресурсы железа.
Но в сранении с ChatGLM's P-Tuning скорость обучения в 3.7 раз выше, а ресурсные затраты на GPU - немного ниже.
Различные модели: LLaMA, Mistral, Mixtral-MoE, Qwen, Yi, Gemma, Baichuan, ChatGLM, Phi и др.
Интегрированные методы: (непрерывное) предварительное обучение, контролируемая точная настройка, моделирование вознаграждения, PPO, DPO и ORPO.
Масштабируемые ресурсы: 32-битная полная настройка, 16-битная настройка с замораживанием, 16-битный LoRA и 2/4/8-битный QLoRA через AQLM/AWQ/GPTQ/LLM.int8.
Расширенные алгоритмы: GaLore, BAdam, DoRA, LongLoRA, LLaMA Pro, Mixture-of-Depths, LoRA+, LoftQ и настройка агента.
Практические приемы: FlashAttention-2, Unsloth, масштабирование RoPE, NEFTune и rsLoRA.
Более быстрый вывод: API в стиле OpenAI, пользовательский интерфейс Gradio и интерфейс командной строки с рабочим элементом vLLM.
Отлично подойдет для тестирования гипотез в разрезе ваших задач
@Unlim_AI