Привет, Хабр! Меня зовут Евгений Мартынов, я CIO Рег.облака. Сегодня хочу поговорить не про очередной хайп вокруг ИИ, а про конкретную точку на временной шкале — и почему именно сейчас она определяет, кто через три года будет впереди, а кто будет догонять.

В 1997 году у интернета было около 100 млн пользователей. Большинство компаний относились к нему как к забавной игрушке. Те, кто зашел тогда, — Amazon, Google — стали определять рынки. Те, кто подождал, позже платили за вход в десятки раз дороже. Генеративный ИИ прямо сейчас проходит ту же точку.

Навигация по тексту:

Три волны, и мы в середине второй

Есть классическая модель внедрения технологий: первое касание — осознанное использование — глубокая интеграция. По скорости первого касания генеративный ИИ обогнал и ПК, и интернет. По данным Stanford AI Index 2026, генеративный ИИ достиг 53% охвата мирового населения за три года. Для сравнения: интернету на аналогичную отметку понадобилось около семи лет, а персональным компьютерам — больше десяти.

Но скорость касания — это еще не глубина. Разрыв между «мы поиграли с промптами» и «у нас работает продуктовый пайплайн с LLM» — огромный. Именно этот разрыв определяет конкурентное преимущество. Осознанное использование ИИ растет быстрее, чем рос ранний интернет, но не радикально: перелом последних двух лет лишь переводит ИИ из экспериментальной фазы в зону устойчивых двузначных процентов внедрения.

Что это значит? У компаний еще есть время зайти не в хвосте. Но это время конечно. К моменту, когда ИИ станет по-настоящему массовым, конкуренты, которые начали сейчас, уже будут иметь отлаженные сценарии и накопленные данные. Догонять будет дороже, чем заходить сегодня.

Российский рынок: цифры, которые стоит знать

Российский рынок генеративного ИИ по итогам 2025 года достиг 58 млрд руб. — это рост в 4,5 раза за год (по данным Just AI и Onside). Прогноз до 2030 года — 778 млрд руб. при среднегодовом темпе 68%. Но аналитики оговариваются: реализация этого сценария напрямую зависит от того, что произойдет в 2026–2027 годах — именно сейчас идет фаза, когда пилоты превращаются (или не превращаются) в рабочие продукты.

При этом только 26% компаний, которые закладывают бюджет на ИИ, имеют стратегию внедрения (данные MTC Web Services). Остальные — либо запускают пилоты, либо только планируют. Рынок входит в фазу «пост-хайпа»: экспериментов хватает, системных внедрений — пока нет.

Немного (но честно) про модели

Прежде чем говорить о том, как внедрять, — важный контекст про то, с чем работаем.

В России нет фундаментальных моделей уровня GPT или Qwen, созданных с нуля. Почти все решения — доработанные версии открытых моделей. Это не критика, это факт, который влияет на выбор архитектуры.

Масштаб вложений в фронтирные модели

Обучение одной фронтирной модели уровня GPT-4 или Gemini Ultra — это десятки и сотни миллионов долларов только на прямые вычисления. По оценкам Epoch AI, стоимость обучения крупных моделей растет в 2–3 раза ежегодно; к 2027 году один тренировочный прогон фронтирной модели может стоить больше миллиарда долларов. Для наглядности: xAI в конце 2025 года расширила свой комплекс Colossus до суммарной мощности около 2 ГВт (энергопотребление среднего города), а парк ускорителей оценивают более чем в 500 тыс. GPU на сумму порядка $18 млрд.

Российские игроки таких ставок не делают — и не пытаются. Фокус смещается на дообучение открытых моделей (Qwen, Llama и их аналогов) под конкретные задачи. Это рабочая стратегия: дает достойное качество в прикладных сценариях, не тянет за собой глобальную гонку за капексом и оставляет ресурсы там, где они реально влияют на результат, — на данных, продуктовой логике и интеграциях.

Следствие прямое: конкуренция идет не в создании базовых технологий, а в настройке импортной основы, сборе данных и удобстве продуктов. Российские нейросети в сложных задачах — разные языки, наука, программирование — пока отстают от мировых лидеров. В повседневных сценариях на русском языке — письма, бытовые вопросы, саппорт — работают достойно и конкурентоспособны.

Почему публичные сервисы не закрывают задачу

Технически доступ к DeepSeek, ChatGPT и другим пока возможен. Но открытые публичные сервисы не подходят, когда:

  • есть конфиденциальные или персональные данные;

  • нужна постоянная гарантированная интеграция — без внезапных изменений API и ценовой политики;

  • агент должен работать по внутренним источникам и базам знаний.

Для большинства реальных корпоративных задач это именно тот случай.

Где размещать: инфраструктурный выбор

Если публичные облака с иностранными моделями не подходят, остается собственная или арендованная инфраструктура в юрисдикции РФ — с контролируемым доступом и понятными зонами ответственности. Облачный провайдер может закрыть базовый уровень из коробки: аренда GPU-серверов (bare metal) и GPU-виртуалок, готовые инференсы моделей по API, low-code и no-code инструменты для сборки пайплайнов, агентские фреймворки, сопутствующая инфраструктура (чат-боты, хранилища, очереди).

Это позволяет не тратить месяцы на настройку железа и сосредоточиться на продуктовой логике.

Сценарии использования

Прежде чем переходить к конкретике платформы — несколько сценариев, которые уже решаются командами средней руки без глубокой ML-экспертизы.

Поиск по внутренним документам с персональными данными. RAG поверх внутренней базы знаний, все в периметре, данные никуда не утекают.

Личный ассистент с быстрым поиском по чувствительной информации. Корпоративный Notion с умным поиском, только на вашей инфраструктуре.

Внутренний помощник техподдержки. LLM, обученная на истории тикетов и документации, помогает первой линии.

Доверенный ассистент для пользователей. Публичный чат-бот, который отвечает строго по вашим данным и не уходит в галлюцинации за их пределами.

Генерация и проверка документов по локальному комплаенсу. Договоры, акты, регуляторная документация — модель знает ваши шаблоны и проверяет соответствие.

ИИ-платформа Рег.облака: что внутри

Мы собрали основные инструменты для работы с ИИ в одном месте и выделили под это отдельное направление. Вот из чего состоит платформа.

GPU-инфраструктура

Bare metal серверы с GPU и виртуальные серверы с GPU — почасовая и помесячная аренда, разные варианты ускорителей под разные задачи. Их можно преднастроить под конкретную задачу: установить модель, инференс, чат-бот, поднять OpenAPI-обертку.

Инференс на базе vLLM

Инференс — это конкретная модель, доступная по стандартизованному интерфейсу. Список инференсов будет дополняться, но на старте уже доступны:

  • Qwen/Qwen2.5-3B-Instruct

  • Qwen/Qwen2.5-7B-Instruct

  • Qwen/Qwen3-VL-8B-Instruct

  • DeepSeek-Coder-V2-Lite-Instruct

  • DeepSeek-R1-Distill-Llama-70B

Инференс можно арендовать монопольно на час. Готовится механика покупки за токены в шаред-режиме.

ИИ-ассистент

Чат-бот на базе Open WebUI + Ollama. Готовое решение для внутреннего использования — разворачивается в вашем периметре, подключается к вашим источникам данных.

n8n — no-code автоматизация

Для большинства задач разрабатывать свою платформу оркестрации неэффективно. n8n — open-source решение, де-факто стандарт рынка, активное комьюнити, сотни тысяч пользователей. Закрывает 80–90% типовых сценариев.

Что уже делается через n8n:

  • автоматизация потока почтовых обращений или тикетов Jira с обработкой через LLM;

  • создание умного бота с контекстом без строчки бэкенд-кода;

  • проверка и отбраковка загружаемых документов;

  • интеграция внутренних систем с ИИ без разработки.

JupyterHub

Среда совместной разработки для ML-команд. Актуально, если внутри есть дата-сайентисты, которым нужен общий вычислительный ресурс без головной боли с настройкой.

S3

Хранилище сырых данных и готовых моделей. Интегрируется со всеми остальными компонентами платформы.

Агент OpenClaw

Автономные исполнители задач. OpenClaw устанавливается одной командой в консоли поверх чистой ОС в Рег.облаке. Готовится версия как готового приложения.

Типичные задачи: администрирование в автономном режиме — аудит безопасности, установка ПО, настройка серверов по заданному сценарию без ручного участия.

Почему сейчас, а не потом

Вернемся к аналогии с интернетом. В 1997 году многие говорили: «Подождем, пока технология созреет». Проблема в том, что технология зреет вместе с теми, кто ее внедряет. Компании, которые начали строить онлайн-продажи в конце 90-х, к 2005 году имели отлаженные процессы, лояльную базу и понимание цифровых каналов. Те, кто пришел позже, конкурировали с ними за внимание аудитории, которая уже привыкла к определенному уровню.

С ИИ картина та же. Пока одни тратят время на пилоты в вакууме, продуктовые команды конкурентов уже обкатывают гипотезы на готовом стеке. Мы видим это по собственным клиентам. Запросы на GPU-инфраструктуру, инференсы и инструменты оркестрации приходят все чаще — и все конкретнее. Не «расскажите про ИИ», а «нам нужен RAG по внутренней базе знаний на нашем периметре» или «хотим автоматизировать первую линию саппорта через LLM». Именно эти запросы определяют, что мы строим и в каком порядке.Поэтому наша ИИ-платформа Рег.облака — это ответ на задачи, которые клиенты решают прямо сейчас.


ИИ-платформа открыта для тестирования. Если работаете над задачами, которые описаны выше, приходите смотреть.

Комментарии (2)


  1. arch1lochus
    21.04.2026 11:39

    По скорости первого касания генеративный ИИ обогнал и ПК, и интернет.

    может, не совсем верная аналогия, но вы как будто пытаетесь сравнить скорость прокладки тоннелей метро и скорость поезда, по ним движущегося. Где, сюрприз-сюрприз, поезд выигрывает, просто парадоксальная технология.
    А еще, думается, что глубокая интеграция бизнеса с сетью Интернет в 1997 это немного не то же самое, что зависимость от больших проприетарных сервисов в 2026, с которыми провайдер может 1. файн-тюнить как душе угодно, вследствие чего качество работы вчера вечером <> сегодня утром. 2. "обновлять тарифные планы" 3. отключить вам доступ.

    Вообще сравнение world wide web с какими-то LLM, которые на нём паразитируют, похоже на очередной поспешный маркетинговый прогрев, пока хайп не сошел.


  1. unreal_undead2
    21.04.2026 11:39

    Те, кто зашел тогда, — Amazon, Google — стали определять рынки.

    Точнее те кто выжил. Все же помнят dot com bubble...