В новой книге известного писателя и журналиста Малькольма Гладуэлла Talking to Strangers (пока не переведена на русский) описана любопытная история.



Ученые создали алгоритм, оценивавший вероятность того, что человек, который внесёт залог в суде, совершит преступление, будучи выпущенным на свободу.



Результаты сравнили с решениями реальных судей. Результат - алгоритм существенно эффективнее чем человек (на 25%) предсказывал потенциальных нарушителей. Похожая история:

https://m.hightech.plus/2019/03/21/ii-iz-stenforda-budet-rekomendovat-kogo-vipustit-iz-tyurmi



У судей и алгоритма был один и тот же объём информации. Но, судьи ещё и смотрели людям в глаза и принимали решение основываясь на эмоциях, которые вызывал у них подсудимый. Как выяснилось, это мешает.



Исследования демонстрируют, что есть немалая доля людей, проявляющих эмоции нестандартно. Некоторые из них выглядят лжецами, говоря правду. А некоторые кажутся правдивыми, даже если тотально лгут. С другими эмоциями ситуация не лучше.



С корректной идентификацией мотивов проявления/не проявления эмоций у таких людей не справляются опытные полицейские, судьи, агенты ФБР, ...



Причём здесь HR? А притом, что все больше стартапов создают алгоритмы анализа эмоций по видео и принятия решений по итогам такого анализа. Алгоритмы обучаются на данных экспертов.



Если эксперты сами не в состоянии делать адекватные выводы, то, вероятно, алгоритмы будут не лучше.



Отсюда вытекает риторический вопрос - на какой основе стоит строить алгоритмы предсказания поведения людей - на основе ненадежных данных (эмоции, мимика, выражения лица, ...) или на объективных характеристиках, содержащихся в документах?