Top.Mail.Ru
мнения

ИИ в подборе персонала: избавление от предвзятости или её усиление?

Фото: Picvario Фото: Picvario

Искусственный интеллект все чаще используется в HR-сфере как помощник в подборе сотрудников. Ему доверяют автоматический скрининг резюме, ранжирование профилей, анализ видеоинтервью. Компании надеются, что алгоритмы помогут снизить человеческие ошибки и избавиться от стереотипов. Но новое международное исследование показывает: ИИ не только не устраняет предвзятость — он может её закреплять и даже передавать людям. Подробности рассказывает международный эксперт по командному лидерству и психологической безопасности, директор Центра «Фактор Лидера» Ирина Просвирякова. 

Исследование, представленное на конференции European Academy of Management (EURAM), доказало, что предвзятые алгоритмы могут «обучить» рекрутеров стереотипам. Ученые пришли к следующим выводам:

  • Рекрутеры нередко воспринимают рекомендации как объективные.

  • Если ИИ рекомендует определённого кандидата, рекрутер склонен соглашаться, даже если у него есть сомнения.

  • Эти стереотипы могут сохраняться и в следующих решениях, даже без участия алгоритма.

Как ИИ порождает предвзятость

Представим, что компания использует ИИ для первичного отбора кандидатов. Алгоритм анализирует тысячи резюме, «обучаясь» на предыдущих решениях менеджеров. Если в этих решениях был скрытый уклон — например, предпочтение при поиске кандидатов на ИТ-должности отдавалось молодым мужчинам с определенным местом рождения и обучения, то ИИ закрепляет эти схемы. Теперь резюме женщин, кандидатов с акцентом или с нестандартным карьерным путём оказываются внизу списка.

Рекрутер видит топ-3 рекомендаций от ИИ — и даже не осознает, что его решение уже ограничено выбором.

Исследователи приводят пример из практики. Британская компания проводила найм ИТ-аналитика. ИИ предложил трёх мужчин в возрасте до 35 лет. При повторной оценке вручную HR-эксперты обратили внимание на двух женщин с лучшими результатами тестов и более релевантным опытом. ИИ проигнорировал их, потому что подобные профили в исторических данных почти не попадали в финальный список.

Чем опасно полное доверие ИИ-технологиям

Стереотипы закрепляются и внутри команды: однородные коллективы хуже справляются с инновациями, сложными задачами и клиентским разнообразием.

Люди перестают думать критически, полагаясь на технологии. Это называется automation bias (от англ. автоматическая предвзятость) — склонность принимать решение машины как лучшее.

Влияние ИИ сохраняется даже после его отключения: рекрутеры, однажды увидевшие «рекомендованный» профиль, продолжают использовать те же критерии, даже если потом работают без ИИ.

Может, отказаться от ИИ?

ИИ в подборе — не зло, это инструмент. Но им надо уметь пользоваться.

Вот пять практических рекомендаций для компаний, которые решили внедрить инновационные инструменты:

  1. Проведите аудит данных и моделей. Проверьте, на каких данных обучен ваш ИИ. Есть ли перекосы по возрасту, полу, типу образования? Даже формально нейтральные алгоритмы могут усиливать старые ошибки.

  2. Обучите HR-специалистов. Рекрутер должен понимать, как работает алгоритм, на чём основаны рекомендации и где они могут быть ошибочны. Добавьте тренинг по распознаванию когнитивных искажений, включая «ошибку подтверждения» (confirmation bias). Она заключается в том, что человек склонен искать, замечать и запоминать только ту информацию, которая подтверждает его уже существующие убеждения или ожидания, и игнорировать или недооценивать сведения, которые этим убеждениям противоречат.

  3. Комбинируйте использование ИИ с человеческой экспертизой. Не полагайтесь полностью на ИИ. Используйте его как один из источников данных, а не как финального арбитра.

  4. Сохраняйте прозрачность и документируйте принятие решений. Фиксируйте, на основании чего было принято то или иное решение. Это помогает выявить повторяющиеся шаблоны и делать от них шаг в сторону.

  5. Работайте над культурой обратной связи и разнообразия. Нанимайте не тех, кто «похож на предыдущих успешных», а тех, кто дополняет команду. Поощряйте обсуждение, а не молчаливое согласие с алгоритмами.

ИИ может стать мощным инструментом в найме. Но при неосторожном обращении — и источником системной дискриминации. Он отражает нас — наши прошлые решения, страхи, привычки. Поэтому задача бизнеса — не заменить человека машиной, а сделать взаимодействие осознанным и справедливым.

Ключ к этичному ИИ — это не только технологии, но и культура принятия решений на основе критического мышления.

Еще по теме