Охота на «маэстро ИИ»: как нанять LLM-инженера в 2025 году
(LLM – Large Language Model, «большая языковая модель»)
За последние пару лет на рынке появилась новая айтишная «золотая должность» – prompt/LLM-инженер, специалист по взаимодействию с продвинутыми нейросетями. В 2023 году такие люди прославились космическими зарплатами до $335 тысяч в год (источник vc.ru) и репутацией чуть ли не «заклинателей» ChatGPT. Компании наперебой искали экспертов, способных внедрить ИИ в контент-маркетинг, клиентскую поддержку, аналитику. Казалось, достаточно нанять секретного гения с правильными промптами – и нейросеть решит любые задачи. Но к 2025 году ажиотаж поостыл, и профессия изменилась.
Prompt-инженеров уже не окружают мифы о «магических словах» – их навыки стали повседневной частью многих ролей (источник fastcompany.com). Тем не менее спрос на умение «приручать» большие языковые модели никуда не делся. Как же правильно нанять LLM-инженера сегодня, когда хайп сменился реальностью? Разберём по порядку.

Кто такие LLM-инженеры и зачем они нужны
Для начала проясним, что вообще делает LLM-/AI-инженер. Представьте, что у вас есть мощная языковая модель (примерно как GPT-4), которую нужно научить решать конкретные задачи бизнеса – отвечать на вопросы клиентов, генерировать тексты под ваш стиль, анализировать документы и т.п. С ходу это не получится: без тонкой настройки ИИ будет выдавать то полезные ответы, то полную чепуху. LLM-инженер как раз и занимается такой «дрессировкой» модели. Его работа – продумывать и задавать нейросети промпты (текстовые инструкции) таким образом, чтобы на выходе сразу получить качественный результат, отвечающий требованиям.
Важно понять: промпт-инженер – это не программист, который пишет нейросеть с нуля, а специалист, который «обучает» уже готовый ИИ под ваши задачи (источник vc.ru). Он глубоко разбирается в разных языковых моделях и умеет их интегрировать в бизнес-процессы. Проще говоря, такой инженер создаёт комплексные инструкции, направляющие поведение модели и заставляющие её работать в нужном формате, тоне и контексте.
Вопреки распространённому заблуждению, это не человек, который знает пару секретных словечек для чудесных ответов. Как метко отмечали авторы vc.ru, промпт-инженер – «не тот, кто знает секретные слова, а тот, кто понимает логику ИИ как партнёра». Его задача – выстроить с нейросетью понятный диалог, структурировать запросы и данные так, чтобы ИИ выдавал максимально точные, полезные результаты.
Как выглядит работа LLM-инженера на практике? Обычно это итеративный процесс: сперва изучаются требования и данные от команды (что нужно получить от ИИ), затем специалист разрабатывает черновой промпт или даже цепочку запросов, настраивая тон и формат ответа. Он запускает модель с этим промптом, анализирует ответ и сравнивает с требованиями.
Почти наверняка с первого раза выходит не идеально – тогда инженер корректирует формулировки, добавляет или убирает детали, меняет параметры модели и пробует снова. Такой цикл «настроил → протестировал → проанализировал» повторяется, пока нейросеть не начнёт стабильно выдавать удовлетворяющие результат ответы. После этого хороший LLM-инженер задокументирует получившийся «рецепт» – внесёт удачный промпт в библиотеку, чтобы его можно было reuse в будущем, и настроит мониторинг: будет отслеживать, не сбоит ли модель со временем, не понадобятся ли правки.
Например, одна из ключевых проблем больших моделей – галлюцинации, то есть уверенное создание ложных фактов. Плохой промпт легко провоцирует ИИ «выдумывать» ответы. Поэтому инженер оттачивает запрос до последнего символа, устраняя двусмысленности и лишние детали – иначе велика вероятность, что модель начнёт путаться и «нести околесицу». В итоге опытный специалист знает, как методом проб и ошибок добиться от нейросети нужного поведения, и фактически выступает переводчиком между человеческими целями и машинным «языком» настроек ИИ.
Реальность 2025: навык нужен, но роль трансформируется
В 2023 году профессия промпт-инженера пережила настоящий бум – её называли «новой нефтью» и даже «работой будущего №1» по версии Всемирного экономического форума (источник hbr.org). Спрос взлетел до небес, особенно после успеха ChatGPT. Лучшие вакансии предлагали до $300k+ в год, в России – до 200–250 тысяч рублей в месяц на пике. Но затем тренд резко скорректировался.
Уже к 2024–2025 гг. компании поостыли к идее нанимать отдельного “заклинателя нейросетей”. Многие ИИ-системы стали понятнее для обычных пользователей, появились инструменты-автопомощники. Да и рынок труда в IT пережил охлаждение – число вакансий сократилось, работодатели начали переучивать своих сотрудников, вместо того чтобы брать новых людей под каждую модную компетенцию.
Как результат, сегодня prompt-инжиниринг всё чаще рассматривается не как самостоятельная должность, а как компетенция в рамках смежных ролей. «AI уже поедает своих создателей: продвинутый промптинг превратился из отдельной работы в навык, ожидаемый почти от каждого», – образно сказал Малкольм Франк, CEO HR-платформы TalentGenius. Действительно, сейчас маркетолог может уметь писать запросы для генерации текста, аналитик – для обработки данных ИИ, разработчик – интегрировать LLM в приложение.
Отдельных «маэстро промптов» нанимают реже, к тому же сами нейросети уже могут… подсказывать нам хорошие промпты! Некоторые компании используют ИИ, чтобы генерировать оптимальные запросы для своих же моделей. Парадокс: ИИ помогает автоматизировать часть работы тех, кто с ним работает.
Неудивительно, что в вакансиях название «prompt engineer» стало встречаться всё реже. «Мне кажется, спрос на чистых промпт-инженеров всегда был раздут медиа», отмечает Алиссон Шривастава, экономист исследовательского отдела Indeed: по её данным, даже на пике таких позиций было слишком мало, чтобы отследить статистически. Сейчас роль чаще прячется под другими тайтлами – Machine Learning Engineer, NLP-инженер, AI-аналитик, архитектор автоматизации и т.п..
Более того, фокус сместился в сторону глубоких технических компетенций. По словам партнёра венчурного фонда Menlo Ventures Тима Талли, настоящая ценность для компаний теперь – специалисты, которые работают над самими моделями (обучают, совершенствуют их), а не просто «подсказывают» им ответы. Спрос на классических ML-инженеров с опытом в LLM стремительно растёт, тогда как «легкий вход» в AI через одни только навыки промптов перестал быть таким уж лёгким.
И всё же, ситуации бывают разные. Нужен ли вам отдельный LLM-инженер? Если компания всерьёз вкладывается в генеративный ИИ – например, строит собственного чат-бота для клиентов или внедряет AI-функции в продукт – выделенный специалист не помешает. Даже если роль трансформируется, кто-то же должен обладать этими знаниями внутри команды. Другое дело, что при найме надо трезво оценивать и квалификацию, и круг обязанностей такого сотрудника.
Сегодня это уже не человек, который весь день только и делает, что перебирает промпты к ChatGPT. Скорее, это инженер широкого профиля с уклоном в генерative AI. Он может совмещать задачи: немного data scientist, немного разработчик, немного аналитик. Ниже – своего рода чек-лист для HR: на какие моменты обратить внимание, чтобы найти и выбрать подходящего кандидата.

1. Определите задачи и требуемые навыки
Первым делом разберитесь, для чего именно вам нужен специалист по LLM. От этого напрямую зависят требования к кандидату. Сфокусируйтесь на конкретных кейсах: например, вам требуется настроить нейросеть для службы поддержки (отвечать на типовые вопросы клиентов в стиле вашего бренда) или для маркетинга (генерировать описания товаров, посты) – или вы хотите разработать AI-фичу в продукте (умный поиск по документам, личный ассистент для пользователей и т.д.). Эти сценарии могут требовать разного набора умений.
Если речь про интеграцию готовых решений (условно – прикрутить GPT-4 через API к вашему сайту), упор делайте на навык быстрого прототипирования, понимание ограничений моделей и работу с данными компании. Если же планируется собственная разработка на базе open-source моделей (типа Llama2, Mistral) – пригодится кандидат с опытом ML-разработки, умением тренировать и дорабатывать модели. Чётко пропишите задачи в будущем job offer. Это не только отсеет случайных людей, но и поможет самому кандидату оценить, подходит ли ему работа.
На российском рынке 2025 года можно проследить две тенденции:
- Чистые «промптёры» перешли в разряд junior-специалистов, а от опытных кандидатов ждут более обширных знаний. В вакансиях все чаще требуют помимо умения составлять запросы также уверенное владение Python, понимание ML-алгоритмов, опыт работы с данными. Например, в финтехе уже стандартом стало требование понимания методов Retrieval-Augmented Generation (RAG) и навыков интеграции через API – чтобы подключать языковую модель к внутренним базам знаний, документам, инструментам. Часто ценится опыт A/B-тестирования, умение оценивать качество ответов алгоритмически, знание основ алгоритмов поиска информации. Проще говоря, LLM-инженер теперь должен мыслить как разработчик и исследователь одновременно.
- Отраслевые компетенции и гибридные навыки в цене. Если модель планируется применять, скажем, в медицине или юриспруденции, плюс будет профильное образование или опыт в этой сфере. На стыке 2024–2025 гг. компании активно искали «гибридов» – специалистов, совмещающих AI-навыки с экспертизой в конкретной отрасли. В требованиях некоторых вакансий можно увидеть, например, сочетание: «опыт с GPT-4, знание терминологии геймдева» или «навыки промпт-инжиниринга плюс понимание основ финансового анализа». Идея в том, что такой сотрудник лучше обучит модель нюансам предметной области. Промпт-инженер без контекста домена рискует задавать ИИ неправильные ориентиры, поэтому при прочих равных выиграет кандидат с близким к вашему бизнесу бэкграундом.
Итак, сформулируйте перечень must-have навыков. Ниже перечислим типичные требования к LLM-инженеру на 2025 год, собранные из реальных описаний вакансий:
- Опыт практической работы с LLM – хотя бы 1 год. Желательно с названиями моделей: GPT-3.5/4, Claude, Llama, RuGPT и пр.. Кандидат должен понимать различия между моделями, их сильные и слабые стороны.
- Знание техник prompt-инжиниринга. Помимо базового zero-shot (когда модель решает задачу без примеров) ценятся умения использовать few-shot подход (давать модели примеры в запросе) и более продвинутые методики вроде chain-of-thought (разбиение решения на шаги, когда модель как бы рассуждает). Хороший специалист в курсе, когда какой подход уместен, и умеет комбинировать их.
- Навыки программирования и работы с данными. Почти везде требуется Python как язык для экспериментов и интеграции моделей. Плюсом будет знание фреймворков типа PyTorch, Hugging Face Transformers, библиотек для работы с LLM (LangChain, LLamaIndex и др.). Если у вас большая пользовательская база данных, пригодится умение обращаться с SQL или NoSQL для выгрузки данных, а также понимание основ обработки текстов (NLTK, spaCy). В задачах генерации кода или интеграции с софтом может понадобиться знание конкретных языков (в геймдев-вакансиях, например, упоминали C#/Unity как плюс).
- Разбираться в API и инструментах ИИ. Поскольку многие модели доступны через API, кандидат должен иметь опыт их использования (OpenAI API, Google PaLM API и т.д.) и понимать такие концепции, как ограничение токенов, тарификация запросов, обработка ошибок API. Также всё чаще всплывает термин function calling – это свежая возможность, когда LLM может вызывать внешние функции (например, делать вычисления или запросы к БД по ходу диалога). В одной из вакансий банка прямо было условие: «понимание RAG и function calling». То есть без пояснений – подразумевается, что соискатель уже знает, о чём речь. Если кандидат не слышал про эти вещи, возможно, он выпал из повестки.
- Английский язык. Во-первых, многие топовые модели англоязычные, и для качественного взаимодействия нужно свободно читать техническую документацию, понимать контент. Во-вторых, само комьюнити и новости по теме LLM в основном на английском. Не случайно в требованиях часто видим «English: Intermediate+». Да и просто, если бизнес международный – придётся настраивать ИИ под многоязычные запросы. Так что знание языка – практически мастхэв для AI-инженера.
- Мягкие навыки: креативность, усидчивость и критическое мышление. Работать с ИИ – это немного искусство: нужно нестандартно мыслить, пробовать разные ходы, подмечать тонкие эффекты. Одновременно важно относиться к результатам критически – не верить слепо всему, что выдаёт модель, уметь проверить и найти ошибку. Также пригодится коммуникабельность: LLM-инженер будет взаимодействовать и с разработчиками, и с заказчиками внутри компании. Ему нужно уметь объяснить, на что способен (и не способен) ИИ, донести результаты экспериментов понятным языком. В описании вакансии одного из AI-стартапов этот момент суммирован идеально: «Hard skills: prompt-оптимизация, RAG, Python/API... Soft skills: креативность, критическое мышление, коммуникация». Именно такой разносторонний образ и должен получиться в вашем портрете кандидата.
2. Где искать и как привлечь лучшего кандидата
Вы определились, что ищете именно LLM-инженера (назовём так для простоты). Готовьтесь к тому, что кандидаты могут быть очень разноплановыми. В отклик могут прийти вчерашние филологи, самоучки, прошедшие онлайн-курс по prompt-инжинирингу, и классические data scientists из крупных компаний. В 2023-м был приток энтузиастов без сильной техбазы, которые видели в prompt-инжиниринге лёгкий вход в IT.
Сейчас таких тоже немало – за прошедший год сотни людей закончили курсы по работе с нейросетями. Конкуренция среди соискателей выросла, хотя вакансий стало меньше. Поэтому важно отсеять случайных людей ещё на стадии резюме.
На что обратить внимание HR-у при первичном скрининге резюме на позицию LLM-инженера:
- Проекты и портфолио. Если кандидат указывает, что занимался ИИ, должны быть конкретные примеры. Идеально – ссылки на прототипы, демо, GitHub. Это может быть чат-бот, телеграм-бот с нейросетью, внутренний инструмент, дипломный проект, публикация на Хабре на тему использования GPT и т.д. Отсутствие каких-либо явных результатов при заявленной специализации – тревожный сигнал. Лучшие LLM-инженеры обычно могут показать, что они уже применяли свой навык на практике (пусть даже в pet-проекте).
- Технический бэкграунд. Смотрите шире названия должностей. Например, соискатель мог работать аналитиком данных или NLP-специалистом – и параллельно использовать в работе генеративные модели. Такие люди часто гораздо ценнее, чем «чистый» промпт-инженер, сидевший в одиночку и гонявший ChatGPT. Ищите в опыте упоминания машинного обучения, аналитики, разработки. Если человек ранее был, скажем, Python-разработчиком или системным аналитиком и затем переквалифицировался в AI – это хороший знак: база знаний есть, а новые навыки он добрал.
- Самопрезентация. Обратите внимание, как кандидат описывает свои умения. Если резюме пестрит модными словами без детализации («создавал волшебные промпты для любой задачи, гуру ИИ, меняю будущее AI») – стоит насторожиться. Профессионалы обычно более конкретны: указывают, с какими моделями работали, каких улучшений добились, в каких кейсах внедрили решения. Например: «разработал систему автоматической генерации ответов для поддержки на базе GPT-3, снизил среднее время обработки запроса на 40%» – такая строчка говорит гораздо больше, чем общие фразы.
- Претензии на зарплату. Рынок слегка остудился: если в 2023 году промпт-инженеру могли платить и 200 тыс. ₽, и 300 тыс. ₽ в месяц, то в 2025 средние вилки по РФ – порядка 100–200 тыс. ₽. В регионах может быть и 70–100 тыс., в топовых столичных компаниях – до 250–300 тыс. ₽ для редких экспертов. Если начинающий кандидат без серьёзного опыта требует на порядок больше рынка, мотивируя это тем, что «его навык уникален», – велика вероятность, что он живёт прошлогодними иллюзиями. Сейчас высокие зарплаты получают инженеры с глубокими знаниями, а не те, кто узко умеет только «писать запросы к ChatGPT». Исключение – разве что западные рынки и топ-компании, где ищут специалистов по AI-безопасности или разработке новых моделей, там уровни других порядков.
Где искать таких кандидатов? Помимо стандартных job-сайтов и LinkedIn, загляните в профессиональные сообщества. В России активно обсуждают нейросети на площадках вроде Хабра, vc.ru, в профильных телеграм-каналах (например, посвящённых data science и AI). Возможно, стоит сделать пост о вакансии в тематическом сообществе – там вы достучитесь до действительно увлечённых AI людей.
Кроме того, рассматривайте внутренних кандидатов: возможно, у вас в компании уже есть кто-то из команды разработки или аналитики, интересующийся LLM и пробующий их в работе. Переквалификация своего сотрудника часто проще, чем поиск извне, особенно учитывая дефицит опытных AI-инженеров. Некоторые компании так и поступают – вместо найма обучают своих, поручая им новые проекты с ИИ.
3. Тщательно готовьте интервью: что спрашивать и как проверять
Когда резюме отобраны, наступает самое интересное – собеседование. Здесь HR-у важно соединить усилия с техническими специалистами, потому что оценить глубину знаний в одиночку сложно. Интервью лучше разделить на блоки: обсудить прошлый опыт кандидата, задать теоретические вопросы по теме LLM, и – желательно – устроить практический тест.
Расспросьте про прошлые проекты. Пусть кандидат детально опишет самый сложный вызов, с которым сталкивался при работе с языковой моделью. Например, как он боролся с галлюцинациями модели? Или как оптимизировал время отклика?
Настоящий специалист не ограничится общими словами. Он может сказать: «сталкивался с проблемой, что GPT-3 выдумывает факты – решил через верификацию ответов: после генерации дополнительно прогонял ответ через поиск по базе знаний» либо «мы внедрили RAG – перед каждым ответом модель извлекала релевантный контент из документов». Такие детали показывают, что человек реально решал боевые задачи, а не только читал о них.
Проверьте понимание ключевых концепций. Ниже несколько тем, на которые стоит попросить кандидата объяснить своими словами (не стесняйтесь чувствовать себя «учеником» – пускай специалист вас научит, это тоже часть коммуникационных навыков!):
- Что такое fine-tuning модели и когда он нужен? – Ожидаемый ответ: это дообучение предобученной модели на специфичных данных для задачи, чтобы она адаптировалась под нужный контекст (источник datacamp.com). Например, если есть свои данные диалогов с клиентами, можно дообучить модель, чтобы стиль и знание были как у вашей компании.
- Какие ограничения и риски есть у больших языковых моделей? – Кандидат должен назвать хотя бы пару пунктов: огромные требования к вычислительным ресурсам, возможная предвзятость и ошибки в ответах, проблемы с конфиденциальностью данных, трудность интерпретации работы модели. Если человек утверждает, что «GPT-4 решает всё идеально, проблем нет» – это знак недостаточного опыта. Опытный инженер знает о заложенных в ИИ биасах и о том, что любая модель – это баланс качества, скорости и стоимости вычислений.
- Что такое «галлюцинация» в контексте LLM? Как с ней бороться? – Тут хороший кандидат упомянет, что галлюцинация – это когда модель придумывает несуществующую информацию, и методы борьбы включают: улучшение промпта (более точно задавать вопрос), подключение проверки фактов, использование RAG (чтобы модель черпала ответы из надежного источника данных, а не из «головы»), настройка температуры генерации и т.д. Возможно, расскажет случай из практики, когда сталкивался с таким поведением модели и как исправил.
- Знает ли кандидат про prompt injection и другие уязвимости? – Это уже продвинутый вопрос: prompt injection – способ, когда злоумышленник вставляет в запрос скрытые инструкции, чтобы сбить модель (например, выдавать секретные данные или игнорировать ограничения). Специалист по LLM должен быть хотя бы в общих чертах в курсе таких проблем и методов защиты (фильтрация вводов, сдерживание модели через системные промпты и пр.). Вопрос проверяет широту кругозора и ответственность: понимает ли кандидат, какие риски несут его разработки.
- Спросите о конкретных инструментах. Например: «Какими библиотеками или платформами вы пользовались при работе с LLM?» Ответ может упомянуть HuggingFace, LangChain, OpenAI API, TensorFlow/PyTorch, Azure Cognitive Services, провiders типа OpenAI, AI21, SberDevices etc. Если человек только говорит «ну, в браузере вбивал тексты в ChatGPT» – этого явно недостаточно. Ему должно быть знакомо более «инженерное» использование моделей.
Некоторые HR-специалисты боятся, что они не поймут слишком технические ответы. Но ваша задача – не воспроизвести за кандидата формулы трансформеров, а почувствовать уровень глубины. Можно заранее вооружиться шпаргалкой (попросить технаря подсказать, какие ответы считаются нормой).
Например, если у вас в компании есть ML-специалист, который не против выступить на интервью – отлично. Но даже без этого можно оценить: кандидат объясняет уверенно, последовательно, с примерами – или путается и произносит заумные термины без связи. Кстати, умение объяснить сложную штуку простыми словами – очень важный навык для AI-инженера в команде.
Практическое задание – must have. Теория теорией, но в деле всё вскрывается. Мы рекомендуем включить в отбор небольшой практический тест, приближенный к реальным задачам. Причём в случае LLM-инженеров классическое «накодьте алгоритм за час» может не подойти – куда лучше проверить навык работы с самой моделью. Вот вариант: дайте кандидату кейс и попросите составить промпт/сценарий для его решения, а затем улучшить его.
Например: «Вот кусок справочного текста о вашем продукте. Составьте промпт, чтобы чат-модель отвечала на вопросы клиентов по этому тексту максимально точно». Или творческое: «Задача – генерировать описания товаров в игривом, молодежном тоне. Какой промпт вы напишете?» Кандидат пишет черновой вариант и поясняет выбор phrasing. Затем можно подсунуть ему намеренно каверзный случай (скажем, модель сгенерировала слишком длинный и скучный ответ) – и спросить, как он скорректирует промпт, чтобы исправить это.
Цель – посмотреть ход мысли и методику работы. В идеале соискатель начнёт задавать уточняющие вопросы (про целевую аудиторию, стиль, ограничения), будет пробовать несколько подходов, комментировать, почему так. Вы увидите, как он реагирует на неудачу: паникует или методично анализирует, в чём причина сбоя. Очень важно, чтобы человек не ушёл в одну итерацию и не сдался, а пытался улучшить результат шаг за шагом – ведь именно этим и предстоит заниматься на работе.
Можно усложнить задачу, попросив немного кода: например, написать простой скрипт, вызывающий модель через API и обрабатывающий ответ. Но имейте в виду, что сейчас кандидаты могут попытаться использовать те же ИИ-инструменты для помощи на интервью. Кстати, некоторые компании начали официально разрешать использование ChatGPT на технических собеседованиях – просто чтобы увидеть, как кандидат им пользуется (источник fractional.ai). Ведь на реальной работе он наверняка будет не прочь обращаться к ИИ-помощникам. Такой подход имеет смысл: если соискатель умеет грамотно задать вопрос помощнику, оценить его ответ и встроить подсказку в своё решение – это плюс.
Но тут важно, чтобы основной мозговой центр всё же оставался у человека. Как отмечают эксперты, кандидату полезно дать поработать с AI-инструментом прямо на интервью и посмотреть, будет ли он критически оценивать подсказки или просто бездумно копипастить. Например, если Copilot выдал кусок кода, кандидат заметит ли ошибку в нём? Или примет на веру? Такие моменты хорошо отражают реальный стиль работы.
Обязательно обсудите кейсы «что бы вы сделали, если…». Они показывают способность к импровизации и применению знаний. Попросите: «Представьте, наша модель начала часто ошибаться в ответах после обновления – ваши действия?» Или «Клиент жалуется, что ответы бота слишком однообразные. Как улучшить разнообразие, не потеряв смысл?» Здесь правильных ответов может быть несколько (например, про разнообразие – кандидат может упомянуть параметр temperature, который регулирует степень «случайности» ответа модели).
Главное – увидеть логику и знакомство с тонкой настройкой. Хороший инженер скажет: «я бы проанализировал логи, возможно, дообучил модель на свежих данных или отрегулировал параметры генерации (temperature, top-k и т.д.)». Плохой – растеряется или начнёт винить абстрактные причины.
Не забудьте про культурный фит. LLM-инженеру предстоит работать в команде, часто объяснять результаты не-technical людям, возможно, участвовать в стратегических сессиях по развитию AI-продуктов в компании. Поэтому оценивайте коммуникацию на интервью. Если человек замыкается или, наоборот, чрезмерно самоуверен и не слушает вопросы – могут быть проблемы в работе. И наоборот, энтузиазм, увлечённость темой, умение признавать, что чего-то не знает и готов учиться – это прекрасные качества. Область AI сейчас меняется очень быстро, и гибкость ума тут ценнее накопленного багажа.
Задайте в конце открытый вопрос: как кандидат видит развитие ИИ в своей сфере через 5 лет? Пусть пофантазирует. Из ответа вы поймёте, разделяет ли он ценности вашей компании, насколько стратегически мыслит и интересуется ли новыми трендами. Например, если он скажет: «Думаю, скоро любой пользователь сможет сам настроить ИИ под себя без посредников, так что наша роль будет больше про поддержку этой экосистемы» – это знак зрелости. А может, человек считает, что AI-угроза и всё рухнет – тоже важный инсайт для вас.
4. Делайте выбор и будьте готовы к изменениям
После всех этапов отбора, соберите командой интервьюеров мнение об участниках. LLM-инженер – сложная комплексная роль, поэтому решение найма лучше принимать коллегиально, учитывая все «грани» кандидата: техническую, коммуникативную, культурную. Если повезло найти человека, сильного во всём – поздравляем, вы заполучили ценного сотрудника! Скорее всего, он быстро выйдет за рамки чисто prompt-задач и будет генерировать идеи по внедрению ИИ в новых направлениях вашего бизнеса.
Однако будьте готовы, что специалисты по генеративному ИИ сейчас нарасхват. Конкурент может переманить ценного кандидата высокими опциями или интересными проектами. Поэтому, делая оффер, постарайтесь помимо зарплаты акцентировать нематериальные плюсы: какие интересные задачи ему предстоит решать, какой доступ к технологиям (например, корпоративная подписка на OpenAI, возможность работать с уникальными данными, наставничество от сильных ML-коллег и т.д.). Многие AI-энтузиасты ценят возможность прокачать навыки и сделать что-то первым на рынке даже больше, чем деньги.
И последний совет: инвестируйте в обучение и обмен знаниями. Если LLM-инженер пришёл к вам, не изолируйте его как волшебника в уголке. Наоборот, вовлекайте в проектные команды, проводите внутренние семинары, чтобы он делился опытом с другими разработчиками, аналитиками, продактами. Современный тренд таков, что prompt-инжиниринг постепенно распределяется между всеми участниками продукта.
Ваш новый специалист может стать евангелистом AI внутри компании, помочь коллегам прокачать цифровую культуру. Пусть научит команду правильной постановке задач для ИИ, настройке проверок, основам работы с нейросетями. В результате ценность найма увеличится многократно: вы получите не одного человека, делающего «что-то с AI», а целую команду, говорящую на языке AI.
Вместо послесловия. Можно ли сегодня обойтись вовсе без LLM-инженера? Малкольм Франк, которого мы цитировали, заявил: «Prompt engineering превратился из профессии в обычную задачу очень-очень быстро». Возможно, через пару лет умение общаться с ИИ станет таким же базовым, как умение работать с офисными программами.
Но сейчас, когда инструменты всё ещё сложны, а методы работы с ними продолжают эволюционировать, компания, у которой есть свой эксперт по большим языковым моделям, получает конкурентное преимущество. Главное – найти не просто человека, умеющего говорить с машинами, а того, кто понимает, как превратить возможности ИИ в пользу для вашего бизнеса. Надеемся, наш обзор поможет вам в этом поиске. Удачной охоты на маэстро ИИ!