Античит для HR: как разоблачить дипфейк на видеоинтервью

За последние годы видеособеседования из вынужденной меры превратились в новую норму найма. Технологии стерли географические границы: компания может интервьюировать программиста за тысячи километров через Zoom, экономя время и ресурсы. Однако вместе с удобством пришла и новая угроза. Все чаще HR-специалисты сталкиваются с кандидатами, которые на экране оказываются вовсе не теми, за кого себя выдают (источник gazeta.ru). Речь уже не только о приукрашенных резюме – на арену выходят полностью фейковые соискатели, созданные с помощью нейросетей и дипфейков.

Представьте: вы проводите удаленное интервью с идеальным, на первый взгляд, претендентом. Отличное резюме, уверенные ответы, камера включена – все как положено. Но что, если «кандидат» на экране – всего лишь аватар, за которым скрывается совсем другой человек? Сегодня это не фантастика, а реальность.

С помощью ИИ мошенники генерируют резюме под вакансию, подделывают документы и даже проводят видеособеседования через „живые“ дипфейк-аватары с синтезированным голосом. В результате HR может час общаться по видеосвязи с персонажем, которого в природе не существует – и даже не заподозрить подвох. Более того, вошло в обиход понятие «прокси-интервью», когда вместо реального кандидата этап отбора проходит подставное лицо, а затем к работе приступает совсем другой человек.

Дипфейк-аватар на видеоинтервью: внешне «кандидат» ничем не выдает подмены. Мошеннические схемы позволяют создать цифровую маску – искусственное лицо и голос, синхронно отвечающие на вопросы HR.

Почему же злоумышленники идут на такой трудоемкий обман? Цель очевидна: получить работу и доступ к ресурсам компании, не раскрывая своей настоящей личности. Это может быть попытка проникнуть в организацию для кражи данных, финансовых махинаций или даже шпионажа. Показательный случай произошел в мае 2024 года: Министерство юстиции США сообщило, что более 300 американских компаний наняли подставных IT-сотрудников из Северной Кореи.

Они использовали поддельные документы, VPN и дипфейк-технологии, чтобы скрыть происхождение – а заработанные деньги (как выяснилось) направлялись на финансирование военных программ Пхеньяна. Еще тревожнее то, что многие такие «специалисты» успешно справлялись с работой и завоевывали доверие коллег, пока обман случайно не вскрывался. Фейковый кандидат способен не только пройти собеседование, но и эффективно работать внутри компании, оставаясь незамеченным. Это уже не просто риск нанять некомпетентного сотрудника – это прямая угроза безопасности бизнеса.

Однако не все случаи разоблачения фейковых кандидатов столь масштабны. Чаще мошенники действуют в одиночку, рассчитывая остаться незамеченными. Например, в небольшом калифорнийском стартапе Vidoc Security Lab недавно дважды пытались устроиться «соискатели», чьи лица и голоса были сгенерированы ИИ (источник anti-malware.ru). Оба претендента на удаленную должность, представившись жителями Польши и Сербии, уверенно прошли телефонный этап интервью – отвечали на вопросы грамотно и по делу, хотя рекрутеров слегка смутил сильный азиатский акцент.

Подлог раскрылся лишь на видеозвонке: изображение кандидатов оказалось ненатуральным, мимика и жесты явно не совпадали с речью. Иными словами, картинка на экране не вполне синхронизировалась со звуком – характерный признак дипфейка. В итоге невнимание мошенников к деталям и плохое качество видео выдало обман, и компания избежала риска нанять фальшивого сотрудника.

Эксперты по кибербезопасности предупреждают: технологии дипфейка совершенствуются, и подобные случаи могут стать обыденностью. «Трудоустройство под личностью другого человека, созданной при помощи дипфейка, дает преступнику доступ к учетным записям и данным компании, что облегчает проникновение в инфраструктуру для атаки», – комментирует руководитель отдела привлечения талантов компании F.A.C.C.T. Людмила Гвоздева. В Киберпанк-реальности, которая наступает на наших глазах, HR-менеджеру уже мало просто верить кандидату на слово – приходится думать как сыщик и обращать внимание на мельчайшие странности в поведении и видеоизображении собеседника.

Но дипфейки – это лишь вершина айсберга. Гораздо более распространенное явление – использование ИИ для нечестной подсказки во время реального интервью. После бума технологий вроде ChatGPT кандидаты получили в свое распоряжение новые инструменты, чтобы блеснуть знаниями, которых у них на деле может и нет. Рекрутеры отмечают тревожный тренд: на технических интервью соискатели все чаще тайно пользуются подсказками ИИ, вместо того чтобы думать самостоятельно (источник securitylab.ru). Например, программист на удаленном собеседовании может получать решения задач из готовых нейросетевых моделей и буквально зачитывать их вслух, выдавая за свои. По данным Wall Street Journal, претенденты начали использовать скрытые AI-подсказки во время интервью разработчиков. Это особенно заметно, когда кандидату предлагают решить сложную задачу «на лету»: вместо паузы на размышление он выдает слишком уж гладкий, шаблонный ответ, иногда даже читая его с экрана.

В результате некоторые крупные компании начали возвращаться к старой доброй очной встрече. Например, McKinsey еще полтора года назад ввела обязательный финальный этап офлайн перед оффером, а Google в этом году потребовала хотя бы одно личное интервью для важных позиций. «Мы хотим быть уверены, что проведем хотя бы один раунд беседы лицом к лицу, чтобы убедиться в фундаментальных знаниях кандидата», – заявил CEO Google Сундар Пичаи. Это во многом ответ на участившиеся случаи, когда на удаленных собеседованиях претенденты читали готовые AI-ответы вместо собственных идей (источник entrepreneur.com). По словам рекрутингового агентства Coda, доля работодателей, которые требуют хотя бы одну личную встречу при найме, выросла с 5% в 2024 году до 30% в 2025-м. Всё возвращается на круги своя: чтобы снова смотреть кандидату в глаза, бизнес готов потратить лишнее время и деньги, лишь бы интервью прошло без невидимого присутствия ChatGPT за спиной соискателя.

Конечно, полностью отказаться от дистанционного найма уже невозможно – да и не нужно. Большинство удаленных интервью проходят честно, а дополнительных очных этапов требует пока лишь каждая третья компания. Но масштабы проблемы растут, и игнорировать её не получается. Согласно недавнему опросу Resume Genius, почти каждый пятый HR-менеджер в США (17%) утверждает, что лично сталкивался с кандидатами, использовавшими дипфейк-технологии на интервью (источник vice.com). Фактически, они проводили беседу с «куклой», чьи мимика и голос синхронизированы ИИ, как у марионетки. Другое исследование показало, что 6% соискателей сами признаются: они прибегали к обману с помощью ИИ на собеседовании. Аналитики Gartner и вовсе прогнозируют, что к 2028 году четверть всех претендентов на рынке труда могут оказаться не настоящими, а полностью синтетическими – с вымышленными биографиями, дипфейковыми лицами и прочими атрибутами.

В России подобные кейсы пока единичны, но бизнес уже насторожился. По данным группы компаний B1 и MTS AI, 92% опрошенных руководителей считают угрозу дипфейк-спуфинга вполне реальной, а 21% компаний признали, что уже сталкивались с мошенничеством с применением ИИ (источник thehrd.ru). Тем не менее, уровень готовности защититься от подобных атак низок: только 3% респондентов уверены в безопасности своих процессов, а 13% прямо заявили, что не смогут противостоять дипфейк-взлому. Иными словами, проблема застала индустрию врасплох. Отделы HR исторически не заточены под кибербезопасность – их роль подбирать таланты, а не распознавать поддельные документы или фальшивые лица. Во многих компаниях проверка кандидата разрозненна по этапам и людям, что создает дополнительные лазейки. А когда весь найм перешел в онлайн, слабые места процесса стали очевидной добычей для мошенников.

Как же отличить реального кандидата от виртуального аватара? Эксперты советуют сочетать технологические инструменты с элементарной наблюдательностью. Вот несколько признаков и приемов, которые помогут разоблачить обман на видеоинтервью (даже если они не оформлены списком, держите этот чек-лист в уме):

  • Несоответствие изображения и звука. Именно этот симптом выдал поддельных кандидатов в истории с Vidoc Lab. Если мимика человека отстает от его речи, движения губ не совпадают со звуком или, скажем, вы слышите кашель, а визуально собеседник при этом даже не повел плечом – насторожитесь (источник ic3.gov). Современные дипфейки весьма продвинуты, но идеальной синхронизации добиться сложно: при внимательном рассмотрении часто видны артефакты наложения. Как отмечали в ФБР, у фальшивого видеоинтервью могут не совпадать движения губ с произносимыми словами или отсутствовать естественные реакции на чихание и кашель. Любые странности – повод задать уточняющие вопросы и пристально приглядеться к «картинке».
  • Неестественная манера держаться перед камерой. Живой человек обычно моргает, меняет выражение лица, время от времени поворачивается в профиль. Если же кандидат выглядит статично, почти не моргает или старательно держит голову прямо перед камерой, не меняя угол – возможно, он опасается нарушить работу фейковой маски. Многие дипфейк-системы дают сбой, стоит человеку резко повернуть голову или закрыть лицо рукой. Кстати, есть простой тест: попросите кандидата помахать рукой перед своим лицом или показать профиль (источник intruder.io). Настоящему человеку это не составит труда, а вот у алгоритма могут появиться видимые искажения (вплоть до кратковременного «срыва маски», когда вместо гладкого лица вы увидите искаженную мешанину пикселей). Любое нежелание выполнить такие простые просьбы — тревожный сигнал.
  • Подозрительный звук и речь. Обращайте внимание не только на картинку, но и на голос. Насыщенная помехами, роботоподобная речь или необычная интонация могут указывать на голосовой фильтр. В примере с «польским» кандидатом и азиатским акцентом несоответствие тоже стало косвенным сигналом: голос не совсем вязался с легендой. Если интервью начинается с телефонного этапа, как было в случае Vidoc, сравните голос по телефону и по видеосвязи – при дипфейке тембр может слегка меняться, ведь в ход идет другая аудиосистема. Синтезированный голос часто звучит чуть более монотонно, может неестественно расставлять ударения или, наоборот, быть чрезмерно ровным. Конечно, полагаться только на слух нельзя – но в комбинации с визуальными уликами это усиливает уверенность в подозрениях.
  • Вторые глаза и уши. Кандидат, жульничающий с помощью ИИ, не обязательно подделывает внешность – иногда он просто получает подсказки. Обратите внимание на поведение: человек слишком долго замолкает (возможно, читает ответ с другого экрана) или, наоборот, тараторит готовый текст без пауз (как будто зачитывает написанное). Посмотрите, нет ли в ушах беспроводных наушников или гарнитуры под волосами. Бывали случаи, когда претенденты надевали почти невидимые наушники, через которые ассистент нашептывал им ответы или даже транслировал сгенерированный нейросетью текст. Попросите собеседника, например, вынуть AirPods и показать уши – под предлогом, что плохо слышно и нужен разговор через громкую связь. Заодно проверьте, не скрыто ли что-то в кадре: попросите показать окружающую обстановку – мол, хочется убедиться, что ничто не отвлекает кандидата. Резкое нежелание поворачивать камеру или демонстрировать свой рабочий стол может говорить о том, что за кадром – суфлёр (другой человек или подсказки на втором мониторе). В конце концов, честному претенденту скрывать нечего, и большинство спокойно отнесутся к небольшому импровизационному «офис-туру».
  • Проверка знаний, а не заученных ответов. Один из надежных способов выявить читинг – выводить кандидата из сценария. Не ограничивайтесь стандартным списком вопросов. Задайте что-нибудь неожиданное, требующее импровизации или личного опыта. Например, попросите подробно описать ход мыслей при решении задачи, обосновать каждый шаг. Мошеннику, который просто зачитывает подсмотренное решение, будет трудно сходу объяснить логику – у него этой логики попросту нет. В технических интервью полезно предлагать альтернативные задачи на ту же концепцию: если человек понял принцип, он справится, а если нет – его заготовленные ответы быстро закончатся. В некодинговых сферах можно спросить о реальных кейсах или даже слегка пошутить, чтобы посмотреть на живую реакцию. Нейросети пока плохо умеют поддерживать человеческий юмор и эмоциональные истории. Главное – увидеть естественное мышление и поведение. Помните, ваша цель – удостовериться, что перед вами теплый кровный человек, а не запрограммированный алгоритм.
  • Документы и подтверждения. Наконец, не стесняйтесь проверять официальные данные. Прямо во время интервью можно попросить кандидата показать паспорт или иной документ удостоверения личности рядом с лицом – как делают при банковской идентификации. Сопоставьте фото с изображением на экране: похоже ли? Многие компании внедряют системы удаленной биометрической верификации, которые еще до собеседования проверяют документы на подлинность и сверяют селфи заявителя с фотографией в паспорте. Спецалгоритмы могут отслеживать микро-мимику, движение глаз, особенности голоса – совокупность параметров, которая практически не подделывается в реальном времени. Такие решения (например, интеграция рекрутинговой платформы Greenhouse с сервисом проверки личности Clear, как объявили в июне) позволяют отсеять фейковые личности еще на этапе подачи заявки. Да, это дополнительные затраты, но они несопоставимы с потенциальным ущербом от инсайдера под маской. Кстати, о масках: попросите снять очки или маску, если кандидат почему-то в них на видео. Вдруг это не имидж, а часть цифрового грима? Практика показывает, что иногда достаточно простой меры – предложить встретиться лично – и подозрительный претендент тут же пропадает с радаров. HR-директор Cisco Келли Джонс признается: бывали случаи, когда приглашенный на очное интервью кандидат просто переставал выходить на связь. Таким образом, лучший детектор дипфейка – это реальная встреча, где никакой фильтр уже не спасет самозванца.

Схематичное изображение: концепция подмены лица с помощью дипфейка. Алгоритмы позволяют наложить чужое лицо на видео человека, имитируя внешность другого. Однако при внимательном рассмотрении можно заметить артефакты – особенно если попросить собеседника повернуться в профиль или закрыть часть лица.

Если признаки обмана всё же выявлены, как действовать HR? Здесь на помощь приходит сочетание технологий и здравого смысла. Во-первых, не стоит полагаться только на интуицию рекрутера. Зная о рисках, компании начали внедрять дополнительные инструменты защиты найма. Мы уже упомянули решения для автоматической проверки документов и биометрии. Более продвинутые системы способны в реальном времени анализировать видеоинтервью на наличие признаков дипфейка: отслеживать неприродные микродвижения лица, отсутствие случайных шумов, несинхронность звука (источник darkreading.comdarkreading.com).

Специалисты советуют записывать все видеоинтервью – затем их можно прогнать через алгоритмы или показать ИБ-аналитикам для форензики, если возникли подозрения. Безопасники также рекомендуют проверять технические метаданные: откуда выходит кандидат на связь, не используется ли VPN или VoIP-номер для скрытия страны. Конечно, HR-отдел сам этим заниматься не будет, но налаженное взаимодействие с отделом информационной безопасности здесь крайне важно. Не бойтесь задействовать ИБ-службу на этапе найма, особенно если идёт прием на удаленную позицию с доступом к чувствительным данным. Лучше перестраховаться на берегу, чем потом выяснить, что новый сотрудник – «троянский конь».

Во-вторых, пересмотрите этапы интервью. Возможно, стоит последовать примеру лидеров индустрии и вернуть хотя бы финальное собеседование в офлайн-формат. Живое общение почти гарантированно отсеет всех, кто рассчитывал проскочить под покровом цифры. Не обязательно тянуть кандидатов через всю страну в главный офис – можно организовать встречу в любом региональном представительстве или co-working центре.

Некоторые компании практикуют компромисс: проводят основные этапы удаленно, но на финальную стадию нанимают локального представителя (вплоть до фрилансера-наблюдателя), который встречается с кандидатом лично в оговоренном месте. Такой «invigilator» – как на экзаменах – может проверить документы, убедиться в отсутствии гарнитур и по видеосвязи подключить основного интервьюера. Да, звучит необычно и требует организации, зато дает высокую уверенность, что на работу выйдет тот самый человек, с которым вы общались.

В-третьих, создайте атмосферу прозрачности и доверия, но без излишней наивности. Кандидатов стоит заранее предупреждать, что в компании действуют меры против мошенничества – без раскрытия деталей, но чтобы у желающих схитрить пропало желание пробовать. Многие недобросовестные претенденты сами отсеиваются, узнав о проверках.

С другой стороны, честным соискателям такое предупреждение не повредит, а даже повысит лояльность: они увидят, что работодатель серьезно относится к безопасности и ценит честную игру. В конце концов, никому не хочется, чтобы место, на которое он претендует, досталось фальшивке. В опросе American Staffing Association 70% респондентов признались, что предпочли бы дать интервью лично, нежели по видео – то есть сами кандидаты не против дополнительных мер, если это обеспечивает справедливость отбора.

Наконец, повышайте цифровую грамотность HR-команды. Стоит провести для рекрутеров хотя бы базовый тренинг совместно с экспертами по кибербезопасности: рассказать и показать, как выглядят дипфейки, какие бывают сигналы обмана. Кто предупрежден – тот вооружен. Возможно, имеет смысл пересмотреть внутренние инструкции найма: например, двойная проверка личности победителя конкурса (с привлечением службы безопасности), прежде чем выписывать ему оффер. Такая многоуровневая система, сочетающая доверие с проверкой, обезопасит компанию от большинства попыток проникновения.

Эра „фейкового найма“ уже наступила, и бизнесу волей-неволей приходится к ней адаптироваться. Дипфейк-кандидаты из курьезных баек превращаются в ощутимый риск, бороться с которым нужно системно. Хорошая новость: на стороне HR тоже есть технологии. Развиваются open-source проекты для детектирования дипфейков, крупные работодатели обмениваются данными о попытках обмана, появляются стартапы, предлагающие сервисы «верификации человеческости».

Но ни одна программа не заменит здоровой бдительности. Пока алгоритмы ловят сбои в пикселях, чуткий взгляд живого рекрутера способен уловить странности в поведении или ответах. В конечном счете, эффективная защита построена на сочетании умного софта и критического мышления людей.

HR-специалистам теперь приходится быть немного детективами. Проверяйте, задавайте вопросы, советуйтесь с безопасниками – и не теряйте человеческий подход. Ведь цель не в том, чтобы устроить каждому кандидату допрос с пристрастием, а в том, чтобы честные люди получили заслуженную работу, а мошенники – шанс разоблачения. Мир найма стал сложнее, но и интереснее.

И если мы, вооружившись новым античит-чеклистом, сможем отличить реального человека от аватара, значит, технологии сыграют нам на пользу, а не во вред. В конце концов, как говорится, доверься, но проверяй – особенно если разговариваешь с симпатичным молодым специалистом по видеосвязи и у него подозрительно идеальное резюме и лицо без единого изъяна. Возможно, перед вами вовсе не человек – и ваша прозорливость спасет компанию от больших проблем.

Следуя этим рекомендациям, HR-ы и рекрутеры смогут обезопасить процесс найма и вернуть себе уверенность: кто бы ни появился в Zoom-комнате, вскоре станет ясно, настоящий это кандидат или хорошо сделанная имитация. Новые вызовы требуют новых подходов – и сегодняшний рынок труда, похоже, предлагает именно такой вызов. Быть может, пора принять его, встретившись с кандидатом лицом к лицу – пусть даже через экран, но без масок и фильтров.