🔍 Что такое объяснительные алгоритмы Когда они используются? Приведите примеры объяснительных алгоритмов
Что такое объяснительные алгоритмы?
Объяснительные алгоритмы позволяют нам обнаруживать и понимать переменные, которые оказывают статистически значимое влияние на выходное значение (результат). Вместо создания алгоритмов для предсказания значений, мы создаем объяснительные модели для понимания взаимосвязи между переменными в модели.
С точки зрения регрессии, очень много внимания уделяется статистически значимым переменным. Почему? Практически всегда вы будете работать с выборкой данных, являющейся подмножеством всей совокупности. Для того чтобы сделать верные выводы о совокупности по выборке, важно убедиться, что результат статистически значим.
Недавно появились два метода: SHAP и LIME. Они используются для интерпретации моделей машинного обучения.
Когда используются?
Объяснительные модели эффективны, когда вы хотите понимать, почему выбрано именно такое решение. Или когда вы хотите понять как две или более переменных связаны между собой.
На практике возможность объяснить, как ваша модель работает, так же важна, как и качество модели. Если вы не можете объяснить, никто не поверит ей и никто не будет её использовать. Это особенно актуально для банковской сферы, где все модели должны быть интерпретируемыми.
Примеры алгоритмов
Традиционные объяснительные модели, основанные на проверке гипотез:
▪Линейная регрессия.
▪Логистическая регрессия.
Алгоритмы для объяснения моделей машинного обучения:
▪SHAP;
▪LIME.
@machinelearning_interview
Что такое объяснительные алгоритмы?
Объяснительные алгоритмы позволяют нам обнаруживать и понимать переменные, которые оказывают статистически значимое влияние на выходное значение (результат). Вместо создания алгоритмов для предсказания значений, мы создаем объяснительные модели для понимания взаимосвязи между переменными в модели.
С точки зрения регрессии, очень много внимания уделяется статистически значимым переменным. Почему? Практически всегда вы будете работать с выборкой данных, являющейся подмножеством всей совокупности. Для того чтобы сделать верные выводы о совокупности по выборке, важно убедиться, что результат статистически значим.
Недавно появились два метода: SHAP и LIME. Они используются для интерпретации моделей машинного обучения.
Когда используются?
Объяснительные модели эффективны, когда вы хотите понимать, почему выбрано именно такое решение. Или когда вы хотите понять как две или более переменных связаны между собой.
На практике возможность объяснить, как ваша модель работает, так же важна, как и качество модели. Если вы не можете объяснить, никто не поверит ей и никто не будет её использовать. Это особенно актуально для банковской сферы, где все модели должны быть интерпретируемыми.
Примеры алгоритмов
Традиционные объяснительные модели, основанные на проверке гипотез:
▪Линейная регрессия.
▪Логистическая регрессия.
Алгоритмы для объяснения моделей машинного обучения:
▪SHAP;
▪LIME.
@machinelearning_interview