Личный гид по навыкам, инструментам и мышлению, стоящим за этой должностью

Data Science не умирает, но быстро эволюционирует.

По прогнозам, число вакансий, связанных с искусственным интеллектом, будет расти примерно на 40 % в год, что приведёт к созданию более миллиона новых рабочих мест к 2027 году.

В этой статье я расскажу о своём переходе из Data Science в AI Engineering, а также дам несколько практических советов тем, кто хочет совершить такой переход или просто узнать больше об этой области.

Мой путь был весьма интересным и полным открытий. Если вкратце:

  • Я получила образование в области физики и астрофизики (бакалавриат и магистратура), после чего перешла в Data Science;

  • Прошла две стажировки за рубежом в области Data Science и машинного обучения;

  • Получила первую постоянную работу как Data Scientist в крупнейшей энергетической компании своей страны;

  • Перешла в AI Engineering менее года назад (по состоянию на май 2025 года) и сейчас работаю в крупной логистической компании.

Если вы работаете в Data Science, как часто вы задумываетесь о том, как ваш код попадает в продакшн? Если ваш ответ — «почти никогда», AI Engineering может вас удивить.

Интересно, как опыт работы в Data Science может повлиять на переход в AI Engineering? Или с какими неожиданными трудностями я столкнулась?

Как выглядит день AI-инженера по сравнению с рабочими буднями Data Scientist’а?

Какие инструменты и платформы я использую сейчас, а какие использовала раньше?

Читайте дальше — расскажу обо всём!

Сходства и различия между Data Science и AI Engineering

AI Engineering — очень широкое понятие, и оно может включать множество задач из области Data Science. На самом деле, этот термин часто используется как зонтичный.

Когда я работала Data Scientist’ом, однажды я потратила три недели на оффлайн-тюнинг модели. Теперь у меня, как у AI-инженера, есть всего три дня, чтобы задеплоить модель в продакшн. Приоритеты поменялись кардинально!

Но означает ли это, что роли полностью различаются и не пересекаются?

А что, если вы захотите податься на позицию AI Engineer? Можно ли использовать навыки из Data Science в этой области?

Сначала я поделюсь с вами результатами небольшого исследования, которое провела, а затем — своим личным опытом и наблюдениями.

Согласно моим наблюдениям, за последние три года обязанности обеих ролей стали шире и начали пересекаться.

Современные описания вакансий Data Scientist всё чаще включают не только анализ и тюнинг моделей. В них появляются требования по развёртыванию моделей, построению data pipeline’ов и применению практик Machine Learning Operations (MLOps).

И именно этим я и занимаюсь, будучи AI-инженером! (Подробнее об этом — в следующих разделах).

Например, в одной из недавних вакансий на позицию Data Scientist напрямую требовался «опыт работы с корпоративными DataOps, DevSecOps и MLOps».

Ещё несколько лет назад Data Scientist’ы в основном сосредотачивались на исследованиях и построении моделей. Теперь же от них всё чаще ожидают, что они будут «full stack» — другими словами, разбираться почти во всём.

Это означает, что от Data Scientist’ов теперь ожидают как минимум базовых знаний в области облачных платформ, разработки и даже DevOps — чтобы их модели могли полноценно поддерживать продукт.

Согласно одному из опросов, 69 % вакансий для Data Scientist’ов требуют навыков машинного обучения, и примерно 19 % — навыков NLP (год назад этот показатель был всего 5 %).

Навыки работы с облаками (AWS, Azure) и с фреймворками для глубинного обучения (TensorFlow/PyTorch) теперь встречаются в 10–15 % вакансий для Data Scientist’ов, что указывает на растущее пересечение с AI Engineering.

Очевидно, что происходит сближение скиллсетов Data Scientist’ов и AI-инженеров. Обе роли активно используют программирование (особенно Python) и работу с данными (SQL), и обе требуют понимания алгоритмов машинного обучения.

Согласно анализу вакансий за 2024 год, Python упоминается примерно в 56–57 % объявлений как для Data Scientist’ов, так и для ML-инженеров.

Навыки работы с облаком и MLOps, похоже, становятся общей базой: от AI-инженеров ожидается, что они будут деплоить модели в AWS/Azure, и «облачные навыки» становятся необходимыми и для будущих Data Scientist’ов.

В таблице ниже приведены ключевые навыки и частота их появления в вакансиях для каждой из ролей — по данным источников, указанных в списке литературы.

Навыки/Инструменты

Объявления для Data Scientist

Объявления для ML/AI Engineer

Программирование на Python

57%

56%

SQL/Запросы к базе данных

30%

26%

Машинное обучение (общие)

69%

— Указано в роли

Фреймворки для глубокого обучения

11% (TensorFlow/PyTorch)

9% (если включать навыки NLP)

Облачные платформы (AWS/Azure)

29% (быстро растет)

Обязательные (обычно требуются)

MLOps/DevOps инструменты

Всё чаще требуется

Основная ответственность (CI/CD, контейнеры и т.д.)

На первый взгляд различия очевидны. Роль Data Scientist’а по-прежнему сосредоточена на традиционной работе с данными: Python, SQL, классическое машинное обучение и извлечение инсайтов из структурированных данных.

Инженеры по машинному обучению и AI-инженеры находятся гораздо ближе к миру разработки ПО. Их задача — превратить экспериментальные модели в надёжные, масштабируемые и постоянно готовые к развёртыванию решения.

Однако наблюдается чёткое и стратегически важное сближение.

Мы видим, что в вакансиях Data Scientist’ов всё чаще упоминаются облачные платформы, а знание инструментов MLOps требуют уже не только на инженерных ролях. Навыки сливаются!

Формируется тенденция, при которой Data Scientist’ов постепенно подталкивают ближе к инженерному стеку.

Мой личный опыт и взгляд

Что я делала как Data Scientist и чем я занимаюсь сейчас как AI-инженер?

Для контекста: я работала Data Scientist’ом в крупной энергетической компании. Мои обязанности включали разработку моделей прогнозирования временных рядов (с использованием XGBoost, LightGBM, SARIMAX и RNN), генерацию и валидацию синтетических данных (через TimeGAN, статистические распределения и методы импутации), проведение глубокого статистического анализа и применение моделей машинного обучения для работы с пропущенными значениями в больших объёмах данных.

Некоторые инструменты и платформы, которые я использовала в роли Data Scientist: VSCode, Jupyter, MLflow, Flask, FastAPI, а также библиотеки на Python — TensorFlow, scikit-learn, pandas, NumPy, Matplotlib, Seaborn, ydata-synthetic, statsmodels и другие.

Во время одной из предыдущих стажировок я работала с PyTorch, Transformers, Weights & Biases, Git и различными библиотеками Python — для дистилляции данных, обучения с учителем, прикладной статистики, компьютерного зрения, обработки естественного языка, object detection, аугментации данных и глубокого обучения.

Инструменты и платформы, с которыми я работаю сейчас

Моим основным языком по-прежнему остаётся Python. Я всё так же использую Jupyter notebooks для прототипирования, но большую часть времени пишу код на Python в VSCode (скрипты, API, тесты и т.д.).

Моя работа тесно связана с Microsoft Azure, особенно с Azure Machine Learning, поскольку моя команда использует его для управления, обучения, развёртывания и мониторинга наших моделей машинного обучения.

Весь жизненный цикл MLOps — от разработки до развёртывания — у нас реализуется в Azure. Мы также используем MLflow для отслеживания экспериментов, сравнения различных моделей и их параметров, а также для регистрации всех версий моделей.

Одним из главных изменений для меня при переходе из Data Science в AI Engineering стало регулярное использование инструментов CI/CD, особенно GitHub Actions. Это, кстати, была одна из первых задач на новой работе.

GitHub Actions помогают создавать автоматизированные пайплайны, которые тестируют и разворачивают ML-модели, чтобы их можно было интегрировать в другие пайплайны.

Помимо машинного обучения, я также разрабатываю и разворачиваю backend-компоненты. Для этого я работаю с REST API, используя FastAPI и Azure Functions — они позволяют отдавать предсказания модели и подключать их к фронтенд-приложениям или внешним сервисам.

Я начала работать с платформой Snowflake, чтобы исследовать и преобразовывать структурированные датасеты с помощью SQL.

Для управления облачной инфраструктурой как кодом я использую Terraform.

Среди других инструментов, с которыми я работаю: Git, Bash и среда Linux. Они важны для совместной работы, написания скриптов, автоматизации, устранения неполадок и управления развёртыванием.

Примеры задач, которые я выполняла как AI-инженер

Сейчас я работаю AI-инженером в крупной логистической компании.

Первая задача, которую мне поручили, заключалась в улучшении и оптимизации CI/CD-пайплайнов для моделей машинного обучения с использованием GitHub Actions и Azure Machine Learning.

Что это означает на практике, спросите вы?

Моя компания хотела создать шаблон MLOps, который можно было бы повторно использовать в новых проектах, не начиная каждый раз с нуля. Этот шаблон — как стартовый набор. Он находится в репозитории на GitHub и содержит всё необходимое, чтобы перейти от прототипа в ноутбуке к рабочему решению в продакшене.

Внутри этого репозитория есть Makefile (скрипт, позволяющий запускать задачи вроде установки зависимостей или тестов одной командой), CI-конфигурация, написанная на YAML (файл, в котором чётко описано, что должно происходить при каждом пуше кода — например, запуск тестов и оценка моделей), а также юнит-тесты как для Python-скриптов, так и для конфигурационных файлов (чтобы убедиться, что всё работает как надо и ничего не сломалось незаметно для нас).

Юнит-тесты на самом деле являются неотъемлемой частью AI Engineering. Они не входят в число моих любимых задач… но критически важны для того, чтобы всё не сломалось, когда модель попадёт в реальный мир.

Представьте: вы потратили несколько дней на обучение модели, а затем из-за крошечной ошибки в скрипте предобработки всё ломается в продакшене. Юнит-тесты позволяют выявить такие «тихие» сбои на раннем этапе!

Означает ли это, что я полностью перестала выполнять задачи, связанные Data Science? Вовсе нет!

На самом деле, одна из моих текущих задач — сопоставление времени отправления и прибытия, очистка данных маршрутов и интеграция результатов во фронтенд-приложение.

Я считаю это отличным примером того, как Data Science (EDA, сопоставление, очистка данных) сочетается с AI Engineering (интеграция, знание особенностей продакшена).

Хочу подчеркнуть, что обе роли — и Data Scientist, и AI Engineer — могут быть довольно широкими, и их обязанности сильно зависят от конкретной компании и даже от отрасли. Всё, чем я делюсь здесь, основано только на моём личном опыте и не обязательно отражает путь или ожидания каждого.

Форматы взаимодействия

Одна из вещей, которую я заметила — это то, что из-за пересечения обязанностей усилилось взаимодействие между членами команды. Всё чаще Data Scientist’ы работают бок о бок с DevOps и бэкенд-разработчиками, чтобы модели действительно запускались в продакшене.

Согласно одному исследованию, если команды не взаимодействуют эффективно, 87 % решений на основе машинного обучения не выходят за пределы лаборатории.

За последние годы компании осознали необходимость в таком взаимодействии. Именно поэтому и появились лучшие практики MLOps, чтобы преодолеть разрыв между Data Science и DevOps.

Основные трудности

Лукавить не буду — путь был непростым. Все слышали о синдроме самозванца, и я, безусловно, какое-то время от него страдала. Думаю, со временем он уходит, особенно когда начинаешь ощущать свою ценность в проектах.

Когда я только начала работать AI-инженером, самой большой трудностью было привыкнуть к новым инструментам и использовать их все вместе. Мне поручили важную задачу (разработка шаблона для MLOps), и я была единственным человеком, работающим над ней. Ответственность была высокой. Мне пришлось в срочном порядке разобраться с YAML, GitHub Actions и тем, как всё это интегрируется с Azure.

Поскольку меня сильно увлекал MLOps, в некоторых проектах я начала брать на себя роль системного архитектора. Мне нужно было продумать, как все элементы связаны между собой и как они будут взаимодействовать, а затем понятно объяснить это менеджерам.

Я точно не была сразу готова к таким обязанностям и ролям, но со временем стала чувствовать себя гораздо увереннее.

Советы по переходу из Data Science в AI Engineering

Я бы сказала, что первый шаг к тому, чтобы стать AI-инженером — это искренний интерес и любопытство к тому, как работает вся система AI в целом. Именно с этого начался мой путь.

Я задавалась вопросами:

  • Как модель попадёт к пользователю?

  • Какую пользу она принесёт?

  • Как устроены базы данных и как мы можем извлекать оттуда данные в продакшене?

  • Как убедиться, что модель будет работать через полгода?

  • Как сделать так, чтобы её качество в продакшене не отличалось от локального?

Потом я начала читать полезные статьи и посты, ещё до перехода в AI Engineering.

В сети полно полезного бесплатного контента. Параллельно я начала проходить онлайн-курсы, чтобы прокачать навыки.

Если вы уже работаете в Data Science, можете попросить менеджера дать вам возможность поучаствовать в продакшн-разработке в вашей команде или хотя бы приглашать вас на встречи с AI-инженерами. По моему опыту, менеджеры обычно поддерживают сотрудников, которые хотят развиваться.

Также можно самостоятельно изучить GitHub Actions, Docker, Azure или AWS. И разобраться в базовых метриках продакшена, таких как задержка, аптайм, мониторинг.

Это очень краткий роадмап — остальные практические советы я оставлю для следующей статьи.

Заключение

Моё мышление изменилось: почему AI-инженеры должны мыслить как разработчики

Чтобы перейти в AI Engineering, важно уметь видеть полную картину жизненного цикла ML: от идеи до продакшена — и убедиться, что модель действительно будет работать, приносить пользу и создавать ценность для бизнеса.

Что это значит?

Это значит учитывать на протяжении всего цикла разработки, как модель будет интегрирована в реальные системы: как она будет развёрнута, как её будут мониторить, масштабировать и поддерживать.

Это значит выйти за пределы ноутбуков и обучающей точности — и начать задавать себе вопросы вроде: где будет работать эта модель? Как безопасно её обновлять? Что будет, если через месяц изменится структура входных данных?

Если вы собираетесь войти в область AI или сделать внутри неё шаг вперёд, помните: не нужно знать абсолютно всё. Но важно понимать, как ваша работа вписывается в общую систему ML-процесса.

Чем сильнее вы будете понимать и чувствовать «другую сторону» пайплайна, тем больше пользы сможете принести.

Как вы могли заметить из этой статьи, переход в AI Engineering для меня — это работа со всем циклом ML: не только обучение модели, но и понимание, как всё работает в совокупности.

Раньше, в роли Data Scientist’а, я занималась классическими задачами: разведочным анализом данных, поиском аномалий, очисткой данных, разработкой и упаковкой моделей. Именно этому меня учили в университете.

В роли AI-инженера мои ежедневные задачи — это смесь обеих ролей. Я всё ещё исследую и чищу данные, но теперь думаю как разработчик, чтобы быть уверенной — модель не просто работает, а действительно живёт в продакшене и поддерживается со временем.

Одним из главных сдвигов в мышлении стало понимание, как писать код, готовый к продакшену, и развитие инженерного подхода: автоматизация установки, тестирования, развёртывания, мониторинга.

Это было увлекательное путешествие, и я собираюсь продолжать делиться своими открытиями дальше.

Надеюсь, статья была вам полезна.


Итак, AI Engineering требует не только теоретических знаний, но и умения эффективно внедрять модели в реальную инфраструктуру. В этом вам помогут программы, которые нацелены на практическое освоение ключевых инструментов и технологий:

  • DevOps практики и инструменты — курс, который научит вас работать с ключевыми практиками, такими как Infrastructure as Code, CI/CD и Observability, для автоматизации развертывания и управления решениями в продакшн-среде. На странице курса можно пройти вступительный тест и записаться на открытые уроки.

  • Инфраструктурная платформа на основе Kubernetes — курс, который предоставит необходимые навыки для создания, развертывания и эксплуатации масштабируемых решений на Kubernetes, включая работу с его экосистемой и нюансами эксплуатации. На странице курса также можно пройти вступительный тест и записаться на открытые уроки.

А тех, кому больше интересно подтянуть навыки в DS & ML, приглашаем заглянуть в каталог курсов — в нём найдёте программу под любой уровень и задачи.

Комментарии (0)