Обзор курса “Generative AI with LLMs”
#courses #ml
"Generative AI with LLMs"
Прошел по наводке @etsymba это короткий, но насыщенный курс. Тут снова Ын засветился, но только во введении. Впрочем, остальные тьюторы тоже четкие, как и презентация в целом. Рассматриваются:
- LLM и основные понятия, так что теперь не спутать instruction fine-tuning и простой fine-tuning или prompt engineering с prompt tuning
- RLHF (довольно подробно), PEFT, LORA, прочие особенности использования LLM в бою
- приложения на основе LLM, LangChain и подобные
- практические задания полезны: суммаризация диалогов, promt engineering (zero-shot, few-shot), затем instruction fine-tuning c PEFT и уменьшение токсичности с RLHF
Чего мне не хватило:
- лабы с разработкой приложения на основе LLM. Иначе вся это теория про LangChain забывается. Впрочем, есть еще курс “LangChain for LLM Application Development” от DeepLearning.AI
- снова ничего про отладку, опять какая-то магия: “вот у нас 5 компонентов, в центе LLM как мозг приложения”. Что делать, если LLM-ка что-то не так поняла – хз. Опять же, Ын выпустил еще один короткий курс “Evaluating and Debugging Generative AI”, может, там становится понятней
- лабы слегка как в курсах бигдатки без самой бигдатки. Хотелось бы примеров файнтюнинга чего-то реалистичного, например, LLama2-13b.
#courses #ml
"Generative AI with LLMs"
Прошел по наводке @etsymba это короткий, но насыщенный курс. Тут снова Ын засветился, но только во введении. Впрочем, остальные тьюторы тоже четкие, как и презентация в целом. Рассматриваются:
- LLM и основные понятия, так что теперь не спутать instruction fine-tuning и простой fine-tuning или prompt engineering с prompt tuning
- RLHF (довольно подробно), PEFT, LORA, прочие особенности использования LLM в бою
- приложения на основе LLM, LangChain и подобные
- практические задания полезны: суммаризация диалогов, promt engineering (zero-shot, few-shot), затем instruction fine-tuning c PEFT и уменьшение токсичности с RLHF
Чего мне не хватило:
- лабы с разработкой приложения на основе LLM. Иначе вся это теория про LangChain забывается. Впрочем, есть еще курс “LangChain for LLM Application Development” от DeepLearning.AI
- снова ничего про отладку, опять какая-то магия: “вот у нас 5 компонентов, в центе LLM как мозг приложения”. Что делать, если LLM-ка что-то не так поняла – хз. Опять же, Ын выпустил еще один короткий курс “Evaluating and Debugging Generative AI”, может, там становится понятней
- лабы слегка как в курсах бигдатки без самой бигдатки. Хотелось бы примеров файнтюнинга чего-то реалистичного, например, LLama2-13b.