В новой книге известного писателя и журналиста Малькольма Гладуэлла Talking to Strangers (пока не переведена на русский) описана любопытная история.
Ученые создали алгоритм, оценивавший вероятность того, что человек, который внесёт залог в суде, совершит преступление, будучи выпущенным на свободу.
Результаты сравнили с решениями реальных судей. Результат - алгоритм существенно эффективнее чем человек (на 25%) предсказывал потенциальных нарушителей. Похожая история:
https://m.hightech.plus/2019/03/21/ii-iz-stenforda-budet-rekomendovat-kogo-vipustit-iz-tyurmi
У судей и алгоритма был один и тот же объём информации. Но, судьи ещё и смотрели людям в глаза и принимали решение основываясь на эмоциях, которые вызывал у них подсудимый. Как выяснилось, это мешает.
Исследования демонстрируют, что есть немалая доля людей, проявляющих эмоции нестандартно. Некоторые из них выглядят лжецами, говоря правду. А некоторые кажутся правдивыми, даже если тотально лгут. С другими эмоциями ситуация не лучше.
С корректной идентификацией мотивов проявления/не проявления эмоций у таких людей не справляются опытные полицейские, судьи, агенты ФБР, ...
Причём здесь HR? А притом, что все больше стартапов создают алгоритмы анализа эмоций по видео и принятия решений по итогам такого анализа. Алгоритмы обучаются на данных экспертов.
Если эксперты сами не в состоянии делать адекватные выводы, то, вероятно, алгоритмы будут не лучше.
Отсюда вытекает риторический вопрос - на какой основе стоит строить алгоритмы предсказания поведения людей - на основе ненадежных данных (эмоции, мимика, выражения лица, ...) или на объективных характеристиках, содержащихся в документах?
Ученые создали алгоритм, оценивавший вероятность того, что человек, который внесёт залог в суде, совершит преступление, будучи выпущенным на свободу.
Результаты сравнили с решениями реальных судей. Результат - алгоритм существенно эффективнее чем человек (на 25%) предсказывал потенциальных нарушителей. Похожая история:
https://m.hightech.plus/2019/03/21/ii-iz-stenforda-budet-rekomendovat-kogo-vipustit-iz-tyurmi
У судей и алгоритма был один и тот же объём информации. Но, судьи ещё и смотрели людям в глаза и принимали решение основываясь на эмоциях, которые вызывал у них подсудимый. Как выяснилось, это мешает.
Исследования демонстрируют, что есть немалая доля людей, проявляющих эмоции нестандартно. Некоторые из них выглядят лжецами, говоря правду. А некоторые кажутся правдивыми, даже если тотально лгут. С другими эмоциями ситуация не лучше.
С корректной идентификацией мотивов проявления/не проявления эмоций у таких людей не справляются опытные полицейские, судьи, агенты ФБР, ...
Причём здесь HR? А притом, что все больше стартапов создают алгоритмы анализа эмоций по видео и принятия решений по итогам такого анализа. Алгоритмы обучаются на данных экспертов.
Если эксперты сами не в состоянии делать адекватные выводы, то, вероятно, алгоритмы будут не лучше.
Отсюда вытекает риторический вопрос - на какой основе стоит строить алгоритмы предсказания поведения людей - на основе ненадежных данных (эмоции, мимика, выражения лица, ...) или на объективных характеристиках, содержащихся в документах?