Математика для Data Science
Одна из самых популярных тем, потому что это одна из главных основ в машинном обучении, которую необходимо знать и обязательно понимать.
Давайте начнем с тематик, которые разобраны более подробно со всеми пояснениями в новом видео, а также рассмотрим, где они встречаются в DS.
📌 Множества. Необходимо понимать какие существуют взаимоотношения между множествами, какие бывают числа, да-да, это тоже включено в тему множеств. Потому что нередко вы можете встретить, когда говорят о вещественных признаках, целочисленных признаках, чтобы точно понимать, что это не просто число с плавающей точкой, а это также может включать в себя бесконечные десятичные непериодические дроби.
📚 Числовая последовательность. Позволяет понять такой термин как предел и почему этот термин в особенности имеет такое название.
📚 Предел. Также этот термин полезен при анализе функции, понимании такого термина как производная. Важно понимать, что есть сходящиеся и расходящиеся пределы, плюс в этой теме нередко рассматривают такое понятие как точки разрыва (виды точек разрыва), в которых функция может не иметь значения.
✅ Производные. После того, как вы прошли прошлые две темы, у вас может сформироваться в голове уже более точное определение производной, что это не просто мы берем функция и по таблице, находим ее производную, нет. Где используются производные? В ML повсеместно. Пределы используются в части методах оптимизации, которые помогают нам найти оптимальные параметры алгоритмов, например в линейных моделях, если говорим про бустинги, то там уже чаще апеллируем таким понятием как вторая производная (производные высших порядков).
✅ Частные производные. Эта тема идет в связке с предыдущей, в том числе и о местах применения. Так как вряд ли у вас в данных будет 1 признак, скорее будет много признаков, и чтобы вычислить производную уже по многомерному пространству применяют частный случай - частную производную. И если уже говорить о конвертике, возможно где-то встречали, но напомню, градиент - вектор частных производных, который как раз и позволяет искать нам те самые оптимальные параметры алгоритма.
📉 Экстремумы. Понимать, что есть глобальные и локальные экстремумы, причем не каждый метод оптимизации ищет именно глобальный эктремум функции.
🔮Интегралы. Будет чрезвычайно полезно знать основы интегрирования, если вы планируете более подробно узнать о статистике и распределении вероятностей. В особенности очень легко понять, что такое интеграл при помощи подхода - суммы Римана. Тут обязательно нужно изучить, что есть несобственные интегралы 1го (как пример функция нормального распределения) и 2го рода. Интегралы также могут быть сходящимися и расходящимися.
Более подробно с разбором всех тем, примерами, теорией в новом видео. Также оставила вам список источников, по которому вы можете подготовиться. Для тех, кто хочет попасть ко мне на 3 поток, просмотр этого видео ОБЯЗАТЕЛЕН с повторением и разбором всех тем!!!!
https://youtu.be/Nrq74MRHHJs
Одна из самых популярных тем, потому что это одна из главных основ в машинном обучении, которую необходимо знать и обязательно понимать.
Давайте начнем с тематик, которые разобраны более подробно со всеми пояснениями в новом видео, а также рассмотрим, где они встречаются в DS.
📌 Множества. Необходимо понимать какие существуют взаимоотношения между множествами, какие бывают числа, да-да, это тоже включено в тему множеств. Потому что нередко вы можете встретить, когда говорят о вещественных признаках, целочисленных признаках, чтобы точно понимать, что это не просто число с плавающей точкой, а это также может включать в себя бесконечные десятичные непериодические дроби.
📚 Числовая последовательность. Позволяет понять такой термин как предел и почему этот термин в особенности имеет такое название.
📚 Предел. Также этот термин полезен при анализе функции, понимании такого термина как производная. Важно понимать, что есть сходящиеся и расходящиеся пределы, плюс в этой теме нередко рассматривают такое понятие как точки разрыва (виды точек разрыва), в которых функция может не иметь значения.
✅ Производные. После того, как вы прошли прошлые две темы, у вас может сформироваться в голове уже более точное определение производной, что это не просто мы берем функция и по таблице, находим ее производную, нет. Где используются производные? В ML повсеместно. Пределы используются в части методах оптимизации, которые помогают нам найти оптимальные параметры алгоритмов, например в линейных моделях, если говорим про бустинги, то там уже чаще апеллируем таким понятием как вторая производная (производные высших порядков).
✅ Частные производные. Эта тема идет в связке с предыдущей, в том числе и о местах применения. Так как вряд ли у вас в данных будет 1 признак, скорее будет много признаков, и чтобы вычислить производную уже по многомерному пространству применяют частный случай - частную производную. И если уже говорить о конвертике, возможно где-то встречали, но напомню, градиент - вектор частных производных, который как раз и позволяет искать нам те самые оптимальные параметры алгоритма.
📉 Экстремумы. Понимать, что есть глобальные и локальные экстремумы, причем не каждый метод оптимизации ищет именно глобальный эктремум функции.
🔮Интегралы. Будет чрезвычайно полезно знать основы интегрирования, если вы планируете более подробно узнать о статистике и распределении вероятностей. В особенности очень легко понять, что такое интеграл при помощи подхода - суммы Римана. Тут обязательно нужно изучить, что есть несобственные интегралы 1го (как пример функция нормального распределения) и 2го рода. Интегралы также могут быть сходящимися и расходящимися.
Более подробно с разбором всех тем, примерами, теорией в новом видео. Также оставила вам список источников, по которому вы можете подготовиться. Для тех, кто хочет попасть ко мне на 3 поток, просмотр этого видео ОБЯЗАТЕЛЕН с повторением и разбором всех тем!!!!
https://youtu.be/Nrq74MRHHJs