Алгоритм против сорокаплюс: как иск к Workday раскрыл тёмную сторону AI-рекрутинга и зачем читать это российским HR прямо сейчас

Когда американский соискатель Дерек Мобли заметил, что из сотни откликов, отправленных через платформу Workday, его ни разу не позвали даже на скромное Zoom-собеседование, он первым делом списал всё на «невезение в кризис». Но чем больше Мобли разговаривал с ровесниками, тем отчётливее звучал тревожный рефрен: «кажется, мы слишком взрослые для алгоритма». 27 мая 2025 года федеральный суд Калифорнии признал: обвинение заслуживает коллективного рассмотрения — то есть к иску могут присоединиться все кандидаты старше сорока, которых отсеял тот же цифровой фильтр. Юристы мгновенно заговорили о первом в США судебном процессе, где на скамье подсудимых оказался не рекрутер-человек, а облачный AI-«привратник» dwt.cominsidetechlaw.com.

Как «чёрный ящик» стал системным риском

Внутри Workday рекрутмент устроен просто: соискатель загружает резюме, алгоритм присваивает балл «fit» и решает, увидит ли HR ваше имя вообще. Точные формулы засекречены, но на этапе обучения модель «подглядывает» в исторические данные компаний-клиентов. Если когда-то менеджеры уже предпочитали более молодых, машина, как прилежный ученик, закрепляет шаблон и начинает карать всех, чьё окончание вуза приходится на далёкие нулевые. Суд прямо указал: даже если возраст не фигурирует в явных признаках, «год получения диплома, длительные паузы в карьере и объём стажа» работают как прокси-метки, создавая непропорциональный удар по группе 40+ hklaw.com.

Workday парирует: решения принимает работодатель, а платформа лишь инструмент. Но судье Рите Лин этого оказалось мало: если именно инструмент «замыкает» воронку, не пропуская людей к интервью, он превращается в фактического «агента по найму» и подпадает под Закон о дискриминации по возрасту (ADEA). В результате иск Мобли стал первым в истории США коллективным процессом против HR-алгоритма за age-bias dwt.com.

Почему это встряхнуло всю индустрию

Прецедент бьёт сразу по трём мифам HR-теха.

Во-первых, идея «AI объектизирует найм» трещит по швам: теперь придётся доказывать на цифрах, что модель не воспроизводит старые предрассудки. Во-вторых, ответственность перекладывается с работодателя на вендора. После Workday любой поставщик ATS рискует получить повестку, если его сервис становится «воротами» на рынок труда. В-третьих, история расчищает путь для регуляторов. Нью-Йорк уже требует ежегодного bias-аудита всех автоматизированных «оценочных инструментов» nyc.gov, а в ЕС финализируют AI Act, относящий рекрутмент к системам «высокого риска».

Для самих компаний это сигнал поднять планку due diligence. Ещё в 2023-м EEOC вынудила iTutorGroup заплатить $365 тыс. за алгоритм, автоматически отстреливавший женщин старше 55 и мужчин старше 60 лет sullcrom.com. Теперь ставки гораздо выше: иск к Workday может объединить тысячи кандидатов, а потенциальные убытки — уйти в сотни миллионов.

А как дела у нас?

В России AI-рекрутинг тоже на подъёме: чат-боты обзванивают претендентов, «СберПодбор» считает баллы соответствия за секунды, HeadHunter рекомендует вакансии, опираясь на собственные ML-модели. Но рынок труда здесь традиционно жёсток к возрасту: исследование РБК приводит цифру — лишь 5 % сотрудников старше 50 лет работают более чем в половине компаний style.rbc.ru. HeadHunter ещё в доковидном 2020-м фиксировал, что возраст значится в топ-причинах отказа кандидатам 45+ perm.hh.ru.

У нас нет коллективных исков по трудовым спорам, а алгоритмы пока не подпадают под прямые нормы ТК. Но это не означает иммунитет. Первое: Риск для репутации. Второе: технологический экспорт. Российские стартапы HR-tech, мечтающие о зарубежных рынках, вынуждены будут пройти западный аудит на отсутствие bias. Третье: правовая рамка быстро сужается. Более 900 компаний уже подписали российский «Кодекс этики ИИ», закрепляющий принцип недискриминации cnews.ru; разработчики активно обсуждают, как превратить красивый манифест в обязательный чек-лист к релизу.

Что делать бизнесу, пока гром не грянул

HR-директорам и техлидам стоит заранее завести привычку «жалить» свои модели на токсичный перекос. Минимальный набор: регулярный A/B-анализ проходных баллов по возрастным группам, право кандидата запросить объяснение отказа и, главное, человек-интерцептор, к которому AI обязан отправлять граничные кейсы. Отдельная линия обороны — договор с вендором, где чётко прописано, кто платит в случае правовых претензий к алгоритму.