Человек так устроен, что ему невероятно трудно принимать решения без предубеждений и предрассудков. Об этом пишут Нобелевские лауреаты и прочие психологи и экономисты.
Даже судьи выносят больше оправдательных приговоров после вкусного обеда (читайте "Думай быстро, решай медленно" Канемана).
Рекрутеры не исключение. И эти ошибки стоят компаниям денег и нарушают закон. По крайней мере на Западе.
Соответственно, автоматизированные системы, должны помогать решать эту проблему. Способов два:
1. Принимать решение без рекрутеров. То есть с помощью роботов/алгоритмов. Можно пробовать, но тут есть множество этических и юридических проблем - GDPR, данные на которых основаны модели (которые сами могут основываться на предрассудках). Про это мы уже писали во многих предыдущих постах
2. Инструменты инклюзивности в интерфейсе систем для автоматизации рекрутмента (ATS). Для России это диковина, а для Штатов более чем норма.
Примеры таких инструментов:
- Автоматическое исключение персональных данных в интерфейсе при рассмотрении резюме (пол, возраст, национальность, расовая принадлежность, ...)
- Автоматические подсказки на каждом шагу. "Подумал ли ты о равных правах чернокожих женщин" при размещении вакансии
- Инструменты, заставляющие рекрутера сравнивать кандидатов по компетенциям/объективным характеристикам
- ...
Сомневаюсь в применимости таких решений на отечественной почве, но интересно.
Про один из примеров автоматизации инклюзивности:
https://techcrunch.com/2018/04/03/greenhouse-inclusion-aims-to-reduce-bias-in-the-hiring-process/
Даже судьи выносят больше оправдательных приговоров после вкусного обеда (читайте "Думай быстро, решай медленно" Канемана).
Рекрутеры не исключение. И эти ошибки стоят компаниям денег и нарушают закон. По крайней мере на Западе.
Соответственно, автоматизированные системы, должны помогать решать эту проблему. Способов два:
1. Принимать решение без рекрутеров. То есть с помощью роботов/алгоритмов. Можно пробовать, но тут есть множество этических и юридических проблем - GDPR, данные на которых основаны модели (которые сами могут основываться на предрассудках). Про это мы уже писали во многих предыдущих постах
2. Инструменты инклюзивности в интерфейсе систем для автоматизации рекрутмента (ATS). Для России это диковина, а для Штатов более чем норма.
Примеры таких инструментов:
- Автоматическое исключение персональных данных в интерфейсе при рассмотрении резюме (пол, возраст, национальность, расовая принадлежность, ...)
- Автоматические подсказки на каждом шагу. "Подумал ли ты о равных правах чернокожих женщин" при размещении вакансии
- Инструменты, заставляющие рекрутера сравнивать кандидатов по компетенциям/объективным характеристикам
- ...
Сомневаюсь в применимости таких решений на отечественной почве, но интересно.
Про один из примеров автоматизации инклюзивности:
https://techcrunch.com/2018/04/03/greenhouse-inclusion-aims-to-reduce-bias-in-the-hiring-process/