
Давайте представим, что мы решили автоматизировать процесс выбора верхней одежды в межсезонье — научить голосового ассистента на основании прогноза погоды подсказывать нам, в чём сегодня лучше выйти из дома.
Предположим, возможных аутфита у нас три: пальто, тренч и толстовка с «Друзьями». Погоду для простоты эксперимента будем характеризовать двумя признаками: температурой и вероятностью осадков.
Для обучения, как обычно, используем множество пар «набор признаков — правильный ответ». В нашем случае это будут заранее собранные данные «погода — комфортная одежда».
Как видите, получилась типичная задача группировки объектов по трём классам. Мы с вами уже знаем, как работать с такими проблемами с помощью интуитивных методов вроде kNN или решающих деревьев. Сегодня познакомимся с ещё одной, более «математической» моделью — наивным байесовским классификатором.
Предположим, возможных аутфита у нас три: пальто, тренч и толстовка с «Друзьями». Погоду для простоты эксперимента будем характеризовать двумя признаками: температурой и вероятностью осадков.
Для обучения, как обычно, используем множество пар «набор признаков — правильный ответ». В нашем случае это будут заранее собранные данные «погода — комфортная одежда».
Как видите, получилась типичная задача группировки объектов по трём классам. Мы с вами уже знаем, как работать с такими проблемами с помощью интуитивных методов вроде kNN или решающих деревьев. Сегодня познакомимся с ещё одной, более «математической» моделью — наивным байесовским классификатором.