Что такое dropout? Почему это полезно? Как это работает?



Dropout — это метод, который на каждом этапе обучения отключает каждый нейрон с определенной вероятностью p. Таким образом, на каждой итерации мы обучаем только 1-p нейронов, что заставляет сеть не полагаться только на подмножество нейронов для представления признаков. Это приводит к регуляризирующим эффектам, которые контролируются гиперпараметром p.