Привет!
Перед вами новое исследование, посвящённое одной из ключевых технологий управления данными — процессам извлечения, преобразования и загрузки данных (ETL). Оно стало логическим продолжением первого обзора рынка ETL-решений, выпущенного нашей командой три года назад.
За это время многое изменилось. Если в 2022-м рынок опирался на зарубежные платформы, то сегодня акценты сместились в сторону отечественных продуктов. Причины очевидны: уход иностранных вендоров, трудности с продлением лицензий, обновлениями и поддержкой. Импортозамещение из формальности превратилось в стратегическую задачу, а потребность в надёжных российских инструментах — в вопрос технологической безопасности.
Одновременно усилились и глобальные вызовы: рост объёмов данных, переход бизнеса к моделям прогнозной аналитики и управлению на основе данных. ETL-системы в этой экосистеме занимают фундаментальное место — именно они превращают разрозненные источники в согласованный поток информации, на котором строятся аналитика, модели машинного обучения и управленческие решения.
Почему ETL-решения стали критически важными
Компании сталкиваются с множеством проблем при работе с данными: разнородные источники, неструктурированные форматы, дублирование записей, ошибки, устаревшая информация. В крупных организациях ручная интеграция данных уже невозможна — требуется промышленная автоматизация.
Именно здесь проявляется ценность специализированных ETL-платформ. Они позволяют:
автоматизировать извлечение, преобразование и загрузку данных из десятков источников;
обеспечить качество, чистоту и согласованность информации;
создать единый поток данных между системами и подразделениями;
сформировать надёжный фундамент для DWH, BI, AI и ML-моделей.
О структуре исследования
Исследование построено из нескольких крупных блоков. В первой части мы рассматриваем ключевые тенденции развития ETL-технологий и их роль в современной архитектуре данных — от классических DWH до гибридных Lakehouse и потоковых сценариев. Затем переходим к анализу российских ETL-платформ и их сопоставлению с популярными open-source-фреймворками, такими как Apache Airflow и NiFi, показывая, где оправдано использование открытых решений, а где необходимы промышленные инструменты с технической поддержкой, сертификацией и развитой экосистемой.
Среди трендов, которые мы выделили, — переход от традиционной модели ETL к гибридным схемам ELT, где обработка выполняется прямо в хранилище; распространение Reverse ETL, возвращающего подготовленные данные обратно в бизнес-системы; активное внедрение Streaming ETL и CDC, обеспечивающих обработку событий в реальном времени; а также интеграция с Lakehouse-архитектурами. Всё больше внимания уделяется автоматизации и DataOps, оркестрации пайплайнов и наблюдаемости за качеством данных. Однако главным трендом, формирующим рынок, стало стремление к self-service в ETL: визуальные конструкторы, low-code-интерфейсы и шаблоны позволяют аналитикам и владельцам данных самостоятельно собирать конвейеры, разгружая ИТ-команды. Self-service делает интеграцию быстрее и ближе к бизнесу — именно этой теме будет посвящено наше следующее большое исследование «Применение концепции self-service в российских решениях для работы с данными (BI, ETL, IBP, DG и др.)».
Мы сознательно отказались от формирования рейтинга. Сравнивать системы напрямую некорректно: они предназначены для разных доменов, отраслей и сценариев — от пакетной интеграции до стриминга и от корпоративных DWH до встроенных ETL в BI-платформах. Продукты различаются по архитектуре, модели лицензирования, степени зрелости self-service и глубине автоматизации. В таких условиях важнее не выставить баллы, а показать, где и при каких задачах конкретное решение будет оптимальным. Поэтому вместо рейтинга мы предлагаем сегментацию по типам продуктов и практическим сценариям их применения.
Участники исследования
Чтобы продукт вошёл в наше исследование, он должен был одновременно соответствовать трём условиям:
Быть самостоятельным ETL-решением, а не встроенным компонентом другой системы, например BI-продукта.
Иметь подтверждённые кейсы коммерческих внедрений.
Иметь функционал ETL как основное или ключевое направление развития.
В итоговую выборку вошли 15 отечественных платформ, сгруппированных по сегментам, как показано ниже:

Каждому участнику мы предложили реализовать единое тестовое задание: перенос данных из файла объёмом порядка 70 млн строк во внутреннюю базу, с базовыми преобразованиями и маппингом, автоматическим и асинхронным запуском, логированием и обработкой ошибок. Задача типовая, но хорошо показывает зрелость платформы: как устроены конструкторы, оркестрация, диагностика, насколько прозрачно отслеживаются сбои и повторы.
Почти все участники успешно справились с тестовым заданием, продемонстрировав зрелый уровень своих решений и внимательное отношение к деталям. При этом различия в подходах были заметны: кто-то делал ставку на скорость настройки, кто-то — на гибкость трансформаций или визуальную наглядность процессов. Среди всех представленных работ особенно выделилась платформа Loginom, показавшая наиболее полное и комплексное выполнение задания — с продуманной визуальной схемой, широким набором готовых компонентов, прозрачным логированием и удобной отладкой. Этот результат отражает высокий уровень зрелости продукта, но не умаляет достоинств других участников: каждая система продемонстрировала сильные стороны и потенциал в своём сегменте. В конце концов целью теста было не определить победителей, а показать, как по-разному платформы решают одну и ту же задачу и где каждая из них раскрывается наилучшим образом.
Как выбрать ETL-решение
При выборе ETL-решения важно учитывать технические и архитектурные особенности платформы. Многие системы, которые могут использоваться как самостоятельные решения, одновременно входят в состав более крупных продуктовых экосистем — например, BI-платформ (Modus, LuxMS) или платформ для управления данными (Datareon, BiQube, DataStreamer). Когда ETL и BI принадлежат одному вендору, настройка и интеграция проще: компоненты синхронизируют метаданные, показатели и права доступа, администрирование выстраивается по единым правилам, обеспечивается сквозная трассируемость данных. Такой подход удобен крупным организациям, где важны скорость внедрения и контроль качества, однако он снижает гибкость и может привести к переплате за лишний функционал. Гибридная стратегия, когда ETL выбирается отдельно от BI, обеспечивает большую свободу и адаптацию под конкретные задачи.
Оптимальность решения зависит от конечного потребителя данных. Если целевая система — BI, важна стабильная пакетная загрузка и наличие готовых коннекторов. Для корпоративных хранилищ — масштабируемость, поддержка разных источников и механизмы контроля качества. Для машинного обучения — инструменты подготовки выборок, нормализации и разметки, интеграция ETL и ML в одной среде (Loginom, Polyanalyst, Dat.ax).
Готовые коннекторы существенно ускоряют внедрение. Особенно критична поддержка 1С, Postgres Pro, ClickHouse и отечественных облаков (VK Cloud, Selectel, Яндекс Облако). Коннектор к 1С должен учитывать архитектуру и API платформы, поддерживать разные версии и инкрементальные выборки без лишней нагрузки на рабочие базы. При их отсутствии приходится писать кастомные механизмы обмена, что повышает трудоёмкость и риски. Поэтому многие российские решения (Modus, Datareon и др.) включают встроенную интеграцию с 1С.
Поддержка CDC и стриминга важна не всегда, но в отраслях, где критично время реакции (банкинг, телеком, промышленность), она становится обязательной. Например, ETL Nexign полноценно работает в реальном времени, тогда как в большинстве сценариев пакетная обработка остаётся достаточной.
Архитектура систем различается: одни создаются с нуля, другие базируются на open-source фреймворках (NiFi, Airflow, Debezium). Это не недостаток, но заказчику важно понимать добавленную ценность — какие доработки и сервисы предлагает вендор и кто отвечает за установку и поддержку компонентов. Если их обслуживание перекладывается на заказчика, риски ложатся на него.
Широкая библиотека встроенных трансформаций — важное преимущество. Чем больше готовых блоков очистки, агрегации и объединения данных, тем меньше ручного кода и нагрузка на разработчиков.
В итоге выбор ETL должен учитывать три аспекта: зрелость процессов и потребность в промышленном инструменте, технические возможности платформы (real-time, CDC, коннекторы, трансформации) и специфику бизнеса. Только так система станет надёжной основой для аналитики и автоматизации.
Мы верим, что представленное исследование станет для вас ориентиром в выборе инструментов и подходов, поможет выстроить надёжную архитектуру данных и одновременно ответить на стратегический вызов импортозамещения. В новых условиях роль качественных отечественных ETL-решений возрастает многократно, и именно от их зрелости и востребованности зависит успешность цифровой трансформации российских компаний.
Скачать исследование бесплатно, можно на сайте проекта Круги Громова, а здесь мы предлагаем чек-лист для выбора ETL решения.
Комментарии (13)

zVlad909
08.12.2025 14:41Есть еще такая тема - репликация. ETL можно считать подмножеством репликации поскольку начальная загрузка целевого хранилища функционально состоит из шагов ETL.
Но репликация это гораздо шире и эффективнее. В самом деле классическая схема ETL это каждый раз удаление ранее загруженных данных. Это не есть экономично. Не всегда уж прямо все данные изменились.
Репликация позволяет делать инкрементальные обновления целевого хранилища накоплеными за некоторое время изменениями. И, в пределе, репликация позволяет делать изменения в сомент их появления на исходном хранилище.
Мне довелось рабоать с двуми имплементациями реплиции: IBM InfoSphere Data Replication и Oracle Golden Gate. В компании где я работаю "победил" первый. Он и является на данный момент предметом моей трудовой деятельности.
Вот ссылка на исчерпывающий докуиент по IIDR:
https://www.ibm.com/docs/en/idr/11.4.0?topic=change-data-capture-cdc-replication
Во первых строках этого документа говорится:
IBM® IBM Data Replication - CDC Replication is a replication solution that captures database changes as they happen and delivers them to target databases, message queues, or an ETL solution such as IBM DataStage® based on table mappings configured in the IBM Data Replication Management Console GUI application.
И приводится вот такая вот картинка:


Maerzd
08.12.2025 14:41У ETL есть SCD для инкремента. IBM специалист любит софт от IBM). Есть Oracle Data Integrator, он тоже CDC поддерживает, Ну и на крайняк Apache NIFI с Informatica.

zVlad909
08.12.2025 14:41У какого/чьего ETL? ETL это всего лишь Extract Transform Load. Это может быть банальное Copy, Unload Load, Unload FTP Load, Unload Transform FTP Load. Это может быть ручной процесс, а может быть автоматизированный.
Все CDC продукт в своем подмножестве функциалов содержат ETL.
Я в ИТ более 40 лет и работал с очень разным софтом, на разных платформах.
Я люблю хороший софт. Софт от ИБМ как правило хороший.
Софт от Оракл плохой по сравнению с ИБМ. Когда у нас делался переход с DB2 for z/OS на Oracle for Linux при наличии уже развернутого IBM IDR (используемого для репликации DB2 for z/OS в MS SQL) "нашими умниками" был выбран Oracle Golden Gate.
Я заряжал Oracle Golden Gate на стороне МФ. После продолжительных барахтаний "наши умники" решили таки переключиться на IBM IDR. Проект перехода был выполнен с IBM IDR и в настоящее время IBM IDR используется для репликации Oracle в MS SQL.
Кстати говорят что ИБМ как раз Informftica взял за основу своего IDR. И унас до IDR использовалась Informatica. А до Informatica использовался Oracle. C Oracle на МФ я работал в начале нулевых. С Informatica лишь вскользь, как запасной игрок, но помню что это был очень трудоёмкий продукт для работы с ним. IDR в этом смысле просто сказка.
На днях собираюсь делать апгрэйд IDR на текущую версию. Почти два года мы прработал без апгрэйдов и без проблем. Точнее проблемы были, но это были проблемы Source Database сиречь Oracle. Для этих проблем были использованы имеющиеся в IDR костыли - Conflict Resolution. Эти костыли конечно есть во всех CDC продуктвх. Но что интересно для DB2 for z/OS они ни разу не были востребованы.
Вот такие дела. Кроме IDR у ИБМ есть DataStage это ближе к чистому ETL. IDR и DataStage могут работать в паре.
На любые вопросу по IDR отвечу с удовольствием. Имею доступ к ИБМ саппорту IDR и одно время очень плотно его использовать приходилось. Это очень великолепный саппорт, на уровне саппорта ИБМ для МФ, который в свою очередь можно охарактеризовать как НЕПРЕВЗОЙДЕННЫЙ ни кем.

XMansch
08.12.2025 14:41Nexibn osa как раз умеет работать с репликами. Мы как раз ремонтируем данный из постгри

zVlad909
08.12.2025 14:41Много что может уметь. Вопрос как. По "Nexibn" ничего на гугле не нашел. Гугл предлагает Nexon.
P.S.
IDR имеет replication engine for PostgreSQL:
The CDC Replication Engine for PostgreSQL provides full replication capability for PostgreSQL. The engine interacts through a standard JDBC interface by using a product-supplied Logical Replication API and database default plug-in
test_decodingto obtain PostgreSQL log data.Note: The CDC Replication Engine for PostgreSQL also supports replication to the CockroachDb database. However, it is only supported as a target.
1div0
Спасибо, полезный обзор. Было бы интересно больше подробностей по каждому продукту. Графический интерфейс, архитектура итоговых решений и т. п.
GromovBI Автор
можно скачать исследование с сайта - там очень много страниц и все вышеперечисленное есть (исследование бесплатное)
1div0
Прямая ссылка бы очень помогла. На сайте есть форма "Заказать отчёт" -- это оно?
GromovBI Автор
точно! тут прямые ссылки не одобряются, но сайт называется russianbi :)