На днях Washington Post написали статью про систему видео-интервью для автоматического опроса и оценки кандидатов с помощью AI. Статья длинная и на английском, но почитать ее стоит:

https://www.washingtonpost.com/technology/2019/10/22/ai-hiring-face-scanning-algorithm-increasingly-decides-whether-you-deserve-job/



Когда мы говори про AI мы задаемся вопросом - а работает ли технология, а хороша ли она? И тут нужно уточнить - а что такое хорошо работающая технология.



Если речь идёт о том, что AI автоматически из массива людей по мимике на видео выделяет действительно лучших и потенциально более эффективных, то точного ответа на этот вопрос нет. Либо да (как утверждает провайдер) либо нет (как говорят некоторые исследователи, упомянутые в статье).



Но, если вычленить из длинного текста суть - бизнесу не нужно идеальное решение. Рекрутеры тоже ошибаются и принимают решения ткнув «пальцем в небо» или глядя на фасон ботинок соискателя.



Бизнесу достаточно, чтобы результаты работы алгоритма были не хуже. В том смысле, что отобрал алгоритм 50 грузчиков и они загрузили вагон за нормативный час и не более 10% не явились на работу. И у рекрутера такие же примерно результаты.



Не важно как алгоритм устроен изнутри. Добавим от себя, что бизнес бы подписался на гадание на хрустальном шаре или карты таро, если бы эту технологию можно было оправдать перед внешним миром и она работала не хуже рекрутера.



Лучше не обязательно, главное чтобы дешевле.



Эта идея не нова - достаточно вспомнить старый анекдот про опытного рекрутера, выкидывающего половину резюме в корзину со словами: «Это неудачники, а такие нам не нужны».



Похоже и к сожалению, с этой циничной идеей придётся смириться. А ресерчеры, сидящие на первичном скрининге кандидатов могут начинать беспокоится.



PS



В чем алгоритм точно будет лучше живого человека (если об этом подумали разработчики) так это в борьбе с расизмом, сексизмом и эйджизмом. Сделал в расчетах поправку на нормативы, убрал из рассмотрения пару переменных и получил идеальную diversity.