Вероятностный язык построения моделей машинного обучения
1. Байесовский подход к теории вероятностей. Байесовские рассуждения. Понятие о графических моделях.
2. Сопряженные распределения. Экспоненциальный класс распределений. Аналитический байесовский вывод.
3. Задача выбора модели в машинном обучении. Принцип наибольшей обоснованности.
4. Использование байесовского выбора модели в обобщенных линейных моделях регрессии и классификации.
5. ЕМ-алгоритм. Вариационный байесовский вывод. Примеры использования.
6. Латентное размещение Дирихле. Байесовская смесь гауссиан. Байесовский метод главных компонент.
7. Байесовские и марковские сети. Основные задачи и методы вывода в графических моделях.
8. Обучение графических моделей. Структурный метод опорных векторов.
Ссылка на плейлист:
https://www.youtube.com/playlist?list=PLlb7e2G7aSpR8mbaShVBods-hGaFGifkl
1. Байесовский подход к теории вероятностей. Байесовские рассуждения. Понятие о графических моделях.
2. Сопряженные распределения. Экспоненциальный класс распределений. Аналитический байесовский вывод.
3. Задача выбора модели в машинном обучении. Принцип наибольшей обоснованности.
4. Использование байесовского выбора модели в обобщенных линейных моделях регрессии и классификации.
5. ЕМ-алгоритм. Вариационный байесовский вывод. Примеры использования.
6. Латентное размещение Дирихле. Байесовская смесь гауссиан. Байесовский метод главных компонент.
7. Байесовские и марковские сети. Основные задачи и методы вывода в графических моделях.
8. Обучение графических моделей. Структурный метод опорных векторов.
Ссылка на плейлист:
https://www.youtube.com/playlist?list=PLlb7e2G7aSpR8mbaShVBods-hGaFGifkl