Искусственный кандидат: когда на собеседование выходит дипфейк
Представьте: вы проводите удалённое собеседование по видеосвязи, задаёте технические вопросы, а кандидат уверенно отвечает. На экране — доброжелательное лицо, резюме идеальное. Но что если этот «соискатель» вовсе не человек, а виртуальный аватар? Звучит как фантастика, но такие случаи уже происходят. Дипфейк‑технологии добрались до рынка труда, и работодатели рискуют принять на работу искусственного кандидата — подставное лицо, созданное ИИ.
За последние годы найм персонала действительно переместился в онлайн: Zoom и Teams стали привычными кабинетами для интервью, а вакансии открыты глобально (источник gazeta.ru). Технологии упростили поиск сотрудников и стерли географические границы. Однако на фоне этих достижений набирает обороты тревожный тренд: фейковые соискатели, выдающие себя за реальных людей с помощью нейросетей и дипфейков.
Речь идёт уже не о приукрашивании резюме, а о создании полностью вымышленных личностей. С помощью ИИ можно сгенерировать CV с нужными навыками, подделать внешность на видео через дипфейк-аватар и даже имитировать голос в реальном времени. Проще говоря, человек, которого HR видит на экране, может оказаться не тем, за кого себя выдаёт.

Новая реальность собеседований. Если раньше максимум обмана заключался в том, что кто-то приукрасил опыт в резюме, то теперь технологии позволяют устроить на работу аватара. Практика «прокси-интервью» уже стала термином: один человек проходит видеоэтап отбора, а реальную работу потом выполняет другой. Более того, готовые инструменты облегчают эту махинацию. То, что требовало серьёзных технавыков ещё пару лет назад, теперь доступно каждому: нейросети генерируют реалистичную внешность, приложения подделывают документы и записывают правдоподобные видеоответы.
В результате обмануть рекрутера становится проще — и HR-специалисты бьют тревогу. По данным опроса Resume Genius, 76% рекрутеров признают, что из-за развития ИИ распознавать фальшивых кандидатов стало сложнее. А в США, согласно свежему исследованию, почти 17% HR-менеджеров лично сталкивались с тем, что кандидат использовал дипфейк-технологии на видеособеседовании (источник theweek.com). То есть каждый шестой-пятый рекрутер уже видел “ненастоящего” соискателя своими глазами.
Причины, побуждающие людей (и не только людей) создавать таких искусственных кандидатов, различны. Кто-то банально не уверен в себе или боится стрессовых интервью — и действительно, опрос компании Honor показал, что каждый пятый россиянин (22,7%) хотел бы поручить ИИ проходить собеседования вместо себя (источник hi-tech.mail.ru). Некоторые даже пробуют: 1,1% респондентов признались, что уже делали дипфейк-двойника для интервью. И хотя пока это экзотика, тенденция понятна: часть соискателей верит, что цифровой аватар с идеально поставленной речью и без волнения справится лучше них самих. Однако есть и куда более опасный мотив — преступный умысел.
Кибермошенники поняли, что удалённый найм открыл им новую дверь. Зачем взламывать компанию извне, если можно проникнуть в неё “легально” под видом сотрудника? Эксперты по информационной безопасности предупреждают: трудоустройство под чужой личностью с помощью дипфейка потенциально даёт злоумышленнику доступ к внутренним системам — учётным записям, данным, корпоративной тайне — и сильно облегчает последующую атаку (источник habr.com). Проще говоря, фейковый сотрудник может устроиться в компанию и изнутри украсть ценные сведения или заложить «бомбу» в инфраструктуре.
В 2022 году, на волне пандемийного роста удалёнки, появились первые подобные инциденты. FBI ещё тогда выпустило предупреждение, что мошенники с помощью дипфейков и украденных персональных данных начинают устраиваться на удалённые должности (источник techcrunch.com). В бюро сообщали о жалобах, где на видеосвязи у кандидата движения губ не совпадали со звуком, кашель или чихание не соответствовали визуальному изображению — явные признаки, что голос и лицо были поддельными. Зачем это нужно мошенникам? В том же предупреждении FBI указало: такие позиции часто связаны с доступом к персональным данным клиентов, финансовой информацией, IT-системами или коммерческой тайной.
Иными словами, целью может быть корпоративное мошенничество или шпионаж. Например, человек не может легально работать в США, но хочет получать зарплату в долларах — тогда он крадёт чью-то личность, делает дипфейк и нанимается удалённо. Или преступная группировка стремится завладеть базами данных компании изнутри. Бывали и случаи, когда государство стояло за армией фейковых кандидатов.
Скандал с «невидимками» и первые жертвы
Весной 2024 года разразился международный скандал: Минюст США заявил, что более 300 американских компаний наняли подставных IT-сотрудников из Северной Кореи. Эти «специалисты» маскировались под выходцев из других стран, используя поддельные документы, прокси-серверы и дипфейк-видео при собеседованиях. Целью было финансирование режима в Пхеньяне: выяснилось, что заработанные деньги кадровые «призраки» отправляли на поддержку северокорейской военной программы. Более того, некоторые из них успели получить доступ к конфиденциальным данным компаний.
Особый шок у работодателей вызывало то, что многие фейковые сотрудники на деле хорошо выполняли работу. Они встроились в команды, завоевали доверие коллег и зачастую демонстрировали высокие результаты. Руководство было потрясено узнав, что один из лучших разработчиков отдела всё это время представлял из себя чужого человека под маской. Этот случай показал, насколько опасен новый вид угрозы: фейковый кандидат способен не только пройти собеседование, но и эффективно работать внутри компании, оставаясь незамеченным.
История с северокорейскими «работниками-призраками» – лишь самый громкий эпизод. В более тихом режиме подобное происходит и на рынке найма в других странах. Эксперты компании Vidoc Security Lab рассказывали, как дважды подряд столкнулись с фальшивыми айтишниками при найме разработчиков. В обоих случаях кандидаты успешно прошли первые этапы отбора – тесты, телефонные интервью – и вышли на финальное видеоинтервью с руководителем. И оба раза во время видеозвонка опытный безопасник сразу заметил: что-то не так. Первый «соискатель» привлёк внимание сильным акцентом, не совпадавшим со страной в резюме, а на видео его лицо выглядело неестественно – мимика запаздывала, губы не попадали в слова, лицо будто накладывалось на тело. При этом отвечал он уверенно, технически грамотный – казалось, отличный кандидат, если не смотреть на картинку (источник theregister.com). Второй случай был ещё хитрее: некий «Братислав», программист из Сербии с 9-летним стажем и дипломом, имел безупречное резюме и 500+ контактов в LinkedIn. На первом этапе он сослался на неработающую камеру, но на финальном интервью её всё же включил – и тут же стало ясно, что перед камерой цифровой аватар.
Более того, ответы этого кандидата звучали подозрительно шаблонно: короткими пунктами, с заметной задержкой. Основатель Vidoc Давид Мочадло сразу узнал стиль ChatGPT – видимо, мошенник в реальном времени подглядывал или генерировал ответы через нейросеть. Когда интервьюер попросил поднять руку перед лицом (известный приём, выводящий дипфейк из строя), собеседник отказался это сделать. В итоге обман раскрылся и кандидата отклонили. Мочадло опубликовал фрагмент видео в сети со словами: «WTF, разработчик использовал ИИ, чтобы изменить свою внешность во время технического интервью…». Пост вызвал резонанс: выяснилось, что десятки компаний по всему миру тоже сталкивались с похожими заявками. Стартапы и корпорации делились историями про кандидатов со странно застылой аватаркой, несовпадающим акцентом и чрезмерно гладкими ответами (источник blog.vidocsecurity.com). Некоторые признались: они поняли, что наняли фейка, только спустя время, когда «сотрудник» уже вышел на работу. Проблема оказалась куда шире, чем думали — и растёт с каждым месяцем.

HR против нейросети: кто кого?
Получается парадоксальная ситуация. С одной стороны, компании всё активнее используют ИИ для подбора персонала — от автоматического отбора резюме до видеоинтервью с алгоритмами. С другой — кандидаты отвечают тем же и начинают использовать ИИ, чтобы обмануть работодателей. HR-специалисты по сути оказались на линии фронта этой тихой войны технологий. Проблема в том, что традиционно отдел кадров не заточен под кибербезопасность.
Их задача — нанимать талантливых людей, улучшать корпоративную культуру, а не ловить хакеров на собеседовании. Большинство эйчаров не имеют навыков, необходимых для распознавания цифровых подделок. К тому же процесс найма обычно многоступенчатый: рекрутер, тимлид, директор — ответственность размазывается по нескольким людям, и в итоге фейковый кандидат может пролезть через «дыры» в верификации. В эпоху удалёнки, когда все этапы проходят онлайн, таких уязвимостей хватает. Неудивительно, что случаи вскрываются случайно или постфактум.
В России случаев использования дипфейков при трудоустройстве пока немного — представители hh.ru называют их единичными. Но и у нас специалисты признают, что это вопрос времени. «Появление таких угроз в России — лишь вопрос времени, учитывая глобальный характер киберпреступности и быстрый прогресс технологий дипфейка», — отмечает Марина Пробец, аналитик компании «Газинформсервис». Да и сами соискатели подогревают тренд: мы уже видели результаты опроса, где 22% готовы заменить себя ИИ на интервью.
Эксперты считают, что такие подходы «серьёзно подрывают достоверность результатов найма». Ведь кандидат может полностью замаскировать отсутствие нужных знаний, пройдя оценку с помощью чужого интеллекта. Стандартизированные вопросы и типовые тесты стремительно теряют актуальность — их слишком легко автоматизировать и срежиссировать. HR-специалисты шутят с горечью, что скоро на собеседовании будут встречаться не люди, а аватары и боты по обе стороны экрана.
Проверка на подделку
Как же защититься бизнесу от искусственных кандидатов? Одной бдительности уже недостаточно. Требуется сочетание технологических и организационных мер. Во-первых, в компаниях пересматривают подходы к верификации новых сотрудников. Ещё на этапе подачи заявки некоторые службы безопасности настаивают на биометрической проверке: например, сравнить фото в паспорте с лицом кандидата по видеосвязи.
В ход идут системы «liveness detection» — алгоритмы, которые в реальном времени оценивают мимику и поведение на видео, отличая живого человека от синтезированного изображения. Простой пример: попросить во время интервью наклонить голову, закрыть глаза или помахать рукой перед лицом — живой собеседник сделает это легко, а вот дипфейк-система может дать сбой, как мы видели в истории Vidoc. Специальные решения отслеживают и голосовые паттерны: синтезированный голос часто имеет незначительные артефакты, сбои в интонациях. Если задать кандидату неожиданный вопрос или разговорить на отвлечённую тему, ИИ-обманщику будет сложнее поддерживать естественность речи. В общем, динамичные форматы интервью – когда вопросники меняются на лету, собеседование идёт более неформально – сейчас рассматриваются как способ уличить «неживого» кандидата.
Во-вторых, никто не отменял старый добрый скрининг. Компаниям советуют тщательнее проверять предоставленные данные: образование, прошлые места работы, рекомендации. Если раньше рекрутеры могли ограничиться звонком одному предыдущему начальнику, то теперь стоит подключать службу безопасности и специальные сервисы верификации. Например, обнаружить, что указанный адрес в резюме принадлежит вовсе не жилому дому, а, скажем, офисному центру или государственной организации – звоночек, что кандидат может быть фейковым (так раскрылся один из случаев Vidoc).
Современные инструменты позволяют мониторить профиль соискателя в соцсетях на предмет аномалий: слишком «идеальный» новый аккаунт в LinkedIn с сотнями фейковых контактов, пустая история активности на GitHub, отсуствие подробностей в профилях – всё это красные флажки. Некоторые HR-отделы уже внедряют автоматические проверки резюме на подделки и использование ИИ. Стартапы вроде FakeProfile.ai (условно) анализируют текст CV и метаданные, чтобы выявить синтетически сгенерированные элементы.
Наконец, обучение HR-персонала. Как ни крути, именно живой рекрутер принимает финальное решение о приёме. Поэтому в крупных компаниях отделы найма начинают тренировать по новым методичкам: как распознать дипфейк при видеозвонке, на что обратить внимание.
Например, советуют отслеживать рассинхрон видео и звука, неестественную мимику или фиксированное выражение лица, несовпадение голоса с внешностью (условно «азиатский акцент у человека с восточноевропейским именем»). Совместная работа HR и отдела информационной безопасности – тренд ближайшего времени. По сути, рекрутеры вынужденно становятся еще и «детективами», вооружёнными ИИ-детекторами.
Вместо резюме – отпечатки пальцев?
Все эти меры призваны решить главную задачу: удостовериться, что человек по ту сторону экрана реален и соответствует своим документам. Возможно, уже скоро при приёме на работу работодатели будут просить не только диплом и портфолио, но и пройти небольшую идентификацию личности через защищённое приложение. Как шутят в сети, «отправляй резюме и снимай отпечатки пальцев». Доля шутки в этом есть – рынок технологий для подтверждения личности сейчас на подъёме.
На конференциях демонстрируют сервисы, которые на лету просканируют видео с собеседования и укажут: не подменено ли лицо или голос. Производители смартфонов тоже подключаются: к примеру, в новом Honor Magic 7 заявлена функция распознавания дипфейковых видео. Бизнесу, особенно в чувствительных отраслях, приходится внедрять такие решения, иначе рискуешь впустить «троянского коня» в виде подставного сотрудника.
В то же время, специалисты советуют не полагаться только на технологию, но и сохранять здоровую долю скепсиса. Иногда настороженность и интуиция опытного интервьюера срабатывают лучше любого алгоритма. Если картинка кандидата слишком уж идеальна или, наоборот, странно ведёт себя при плохой связи – лучше перепроверить. Попросить внепланово пройти очную встречу или дополнительный тест. В конце концов, живое общение пока никто не отменял: даже при удалённой работе лишний видеозвонок с включённой камерой под разными ракурсами не повредит.
Фейковый кандидат уже не фантастика, а новая реальность цифрового рынка труда. Тем, кто нанимает людей, пора принять этот факт и адаптироваться. Каждая компания, от стартапа до гиганта, может стать мишенью – особенно если у неё есть ценные данные или финансовые ресурсы. В будущем подобные схемы наверняка станут изощрённее: сами HR-ы признаются, что боятся дня, когда не смогут отличить настоящего человека от аватара. Но гонка продолжается. В ответ на угрозы бизнес разрабатывает комплекс защиты – от новых технологий идентификации до изменения формата интервью. По сути, найм возвращается к главному вопросу: «Кто вы на самом деле? Докажите». И тем, кто научится задавать этот вопрос (и получать на него честный ответ), не страшны никакие дипфейки.