ИИ в HR: как алгоритмы могут разрушить карьеру и репутацию компании

«Нейросеть, проанализировав ваш профиль, не рекомендует вас к повышению. Причина? Никто не знает». Звучит как сюжет из антиутопии, но на деле это уже реальность. Алгоритмы на основе искусственного интеллекта сегодня стремительно входят в HR-процессы по всему миру — от отбора резюме до оценки эффективности сотрудников. Но что будет, если довериться машине вслепую?

Сегодня AI-инструменты обещают компаниям волшебную палочку: ускорение процессов найма, мгновенный анализ сотен резюме, выявление идеальных кандидатов за считанные секунды. Идеальная картина будущего. Однако с внедрением этих технологий всплывают и неожиданные побочные эффекты, способные не только испортить карьеру соискателей, но и серьезно ударить по репутации работодателей.

Алгоритм Amazon, который ненавидел женщин

Один из самых громких скандалов с HR-алгоритмами случился с компанией Amazon. В 2018 году они прекратили использовать AI-инструмент для анализа резюме, обнаружив, что нейросеть непреднамеренно дискриминирует женщин. Оказалось, что искусственный интеллект, обученный на резюме преимущественно мужчин, стал считать, что женщины менее подходят на технические позиции. Эта «невидимая предвзятость» привела к тому, что сильные кандидатки получали незаслуженно низкие оценки.

Эксперт по AI и HR-технологиям Дмитрий Шеверев комментирует эту ситуацию так: «Алгоритмы не рождаются предвзятыми — они учатся этому у нас, людей. Если данные, на которых обучается модель, содержат дискриминацию, искусственный интеллект эту дискриминацию усилит».

Черный ящик, который решает судьбы

Большая часть современных AI-алгоритмов, таких как нейросети, — это так называемый «черный ящик». Они принимают решение, но объяснить, почему именно такое, не могут. В результате возникает парадокс: HR-менеджеры получают рекомендацию, но не понимают, по каким критериям она сформирована.

Представьте ситуацию: кандидат с отличными компетенциями не получает работу, а менеджер даже не может объяснить причину отказа, потому что ее не знает. Это не только дискриминационно, но и крайне негативно влияет на бренд работодателя.

Юлия Волкова, HR-директор крупного российского IT-холдинга, делится опытом: «Когда мы только начали использовать AI для отбора резюме, мы столкнулись с волной негатива от кандидатов, получавших необъяснимые отказы. Мы поняли, что если решение принимает алгоритм, то у нас должны быть механизмы для объяснения, как именно он это делает».

Конфиденциальность и безопасность: есть ли гарантия?

Еще одна боль компаний, внедряющих AI в HR, — конфиденциальность данных. По данным исследования ai.gov.ru, около 40% компаний в России уже обеспокоены безопасностью личных данных, используемых HR-алгоритмами. И это оправданно.

В марте 2024 года в США разгорелся скандал вокруг компании, которая использовала нейросети для анализа активности сотрудников. Оказалось, что данные о переписках, посещениях сайтов и даже эмоциях людей во время видеоконференций собирались без их согласия. В результате — штрафы, увольнения и испорченная репутация.

Как приручить ИИ в HR?

Несмотря на очевидные риски, технологии AI в HR могут быть полезны, если подходить к ним правильно. Компании, успешно использующие ИИ, например, IBM, Microsoft и Google, придерживаются нескольких принципов, чтобы минимизировать риски.

Во-первых, необходимо регулярно проверять алгоритмы на справедливость и прозрачность, делать регулярный аудит моделей и данных. Во-вторых, стоит отдавать предпочтение системам, которые могут объяснять свои решения. Например, уже появляются платформы с «объяснимым ИИ» (XAI), которые прямо указывают HR-специалисту, почему алгоритм выбрал именно этого кандидата.

Кроме того, стоит помнить, что AI — это помощник, а не решение всех задач. «Искусственный интеллект никогда не должен принимать окончательное решение. Это ответственность людей», — говорит Андрей Фролов, технический директор HR-стартапа.

В ожидании новых правил игры

Нормативы и законы для регулирования искусственного интеллекта постепенно появляются в мире. В Европе на подходе строгий AI Act, который заставит компании доказывать прозрачность и безопасность своих алгоритмов. В России пока действует только добровольный Национальный кодекс этики ИИ, но уже ясно, что регулирование не за горами.

Анна Зайцева, юрист, специализирующийся на защите персональных данных, отмечает: «Мир AI сейчас напоминает дикий запад. Правила формируются прямо сейчас, и компаниям нужно готовиться к тому, что очень скоро использование нейросетей в HR будет жестко регламентировано».

Что дальше?

Технологии AI стремительно развиваются, и пока одни компании с осторожностью тестируют новинки, другие уже платят за ошибки алгоритмов репутацией и деньгами. Но бояться технологий не стоит. Грамотный подход и понимание рисков позволят HR-отделам использовать искусственный интеллект эффективно и этично.

Возможно, через пару лет объяснимость решений AI станет обязательной, а сегодня важно помнить, что ИИ должен служить людям, а не наоборот.

Источники:

  • Sber.pro
  • AI.gov.ru
  • «Белая книга по этике ИИ», 2024
  • Исследования Potok.ai, IBM Research.