Человек так устроен, что ему невероятно трудно принимать решения без предубеждений и предрассудков. Об этом пишут Нобелевские лауреаты и прочие психологи и экономисты.



Даже судьи выносят больше оправдательных приговоров после вкусного обеда (читайте "Думай быстро, решай медленно" Канемана).



Рекрутеры не исключение. И эти ошибки стоят компаниям денег и нарушают закон. По крайней мере на Западе.



Соответственно, автоматизированные системы, должны помогать решать эту проблему. Способов два:

1. Принимать решение без рекрутеров. То есть с помощью роботов/алгоритмов. Можно пробовать, но тут есть множество этических и юридических проблем - GDPR, данные на которых основаны модели (которые сами могут основываться на предрассудках). Про это мы уже писали во многих предыдущих постах

2. Инструменты инклюзивности в интерфейсе систем для автоматизации рекрутмента (ATS). Для России это диковина, а для Штатов более чем норма.



Примеры таких инструментов:

- Автоматическое исключение персональных данных в интерфейсе при рассмотрении резюме (пол, возраст, национальность, расовая принадлежность, ...)

- Автоматические подсказки на каждом шагу. "Подумал ли ты о равных правах чернокожих женщин" при размещении вакансии

- Инструменты, заставляющие рекрутера сравнивать кандидатов по компетенциям/объективным характеристикам

- ...



Сомневаюсь в применимости таких решений на отечественной почве, но интересно.



Про один из примеров автоматизации инклюзивности:

https://techcrunch.com/2018/04/03/greenhouse-inclusion-aims-to-reduce-bias-in-the-hiring-process/