Обзор курса “Generative AI with LLMs”

#courses #ml



"Generative AI with LLMs"



Прошел по наводке @etsymba это короткий, но насыщенный курс. Тут снова Ын засветился, но только во введении. Впрочем, остальные тьюторы тоже четкие, как и презентация в целом. Рассматриваются:



- LLM и основные понятия, так что теперь не спутать instruction fine-tuning и простой fine-tuning или prompt engineering с prompt tuning

- RLHF (довольно подробно), PEFT, LORA, прочие особенности использования LLM в бою

- приложения на основе LLM, LangChain и подобные

- практические задания полезны: суммаризация диалогов, promt engineering (zero-shot, few-shot), затем instruction fine-tuning c PEFT и уменьшение токсичности с RLHF



Чего мне не хватило:



- лабы с разработкой приложения на основе LLM. Иначе вся это теория про LangChain забывается. Впрочем, есть еще курс “LangChain for LLM Application Development” от DeepLearning.AI

- снова ничего про отладку, опять какая-то магия: “вот у нас 5 компонентов, в центе LLM как мозг приложения”. Что делать, если LLM-ка что-то не так поняла – хз. Опять же, Ын выпустил еще один короткий курс “Evaluating and Debugging Generative AI”, может, там становится понятней

- лабы слегка как в курсах бигдатки без самой бигдатки. Хотелось бы примеров файнтюнинга чего-то реалистичного, например, LLama2-13b.