
За последние несколько лет ИИ прошел колоссальный путь. Сначала над ним смеялись. Затем вдруг испугались, решив, что он отнимет у всех работу. А теперь — причем не исключено даже, что все это были одни и те же люди — внедряют его в своих компаниях. Что же поменялось?
Чем AI-сервисы в облаке лучше, нежели на своем железе
Если честно, то поменялось почти все — от того, что сегодня умеет искусственный интеллект до того, сколько все это добро стоит. Однако ключевых факторов все-таки два.
Во-первых, стало дешевле и проще. Теперь, чтобы внедрить ИИ, уже не нужно покупать железо за миллионы и нанимать команду, которая будут это дело обслуживать.
Во-вторых, появились реальные кейсы применения ИИ с измеримым результатом, которые позволяют четко определить, что работает, а что нет.
Слишком общо? Ну, давайте конкретнее. Раньше, чтобы запустить что-то с нейросетями, нужно было собрать целый отдел ML-инженеров, закупить GPU, разобраться с фреймворками, библиотеками, зависимостями. На это могли уйти месяцы подготовки.
А сейчас что?
А сейчас облачные платформы дают готовые инструменты прямо из коробки. RAG-поиск по документам? Пожалуйста. Генератор ответов? Вот он. Конструктор чат-ботов? Забирайте. Теперь можно просто взять API, интегрировать его у себя за пару дней и начинать работать.
Но главное даже не это. Главное — кто бы сомневался — деньги. Топовый GPU Nvidia A100 стоит 2-2.5 миллиона рублей. За один чип. Один. А для нормальной работы нужен целый кластер. Плюс — электричество, охлаждение, администрирование. Это не разовые платы, а регулярные. В облаке история совсем другая. Здесь ты платишь за использование, и только за него. Запустил модель на час для теста, значит, платишь за час. Выключил — не платишь.
Причем чем дальше, тем дешевле становится вся эта история. Больше клиентов грузят инфраструктуру — меньше стоит каждый токен. А клиентов набралось ой как много.
Рынок облачного AI в России
По подтвержденным данным, за этот год частота использования нейросетей в корпоративном сегменте выросла в 5 раз. В один только Yandex AI Studio пришло 40 тысяч компаний, половина из которых — крупный бизнес. Таким образом уже за первое полугодие Yandex Cloud заработал от AI-сервисов больше миллиарда, что больше, чем за весь прошлый год. И это лишь одна платформа.
А весь рынок генеративного ИИ в России и вовсе может достичь отметки в 1.9 триллиона к концу года. Да, рублей, а не долларов, но все равно внушительно.
Впрочем, особо удивляться тут нечему: деньги в рынок действительно текут рекой. Сказывается обоюдный интерес как со стороны потребителя, так и поставщика. Например, Selectel заявил о намерениях вложить в ИИ 10 миллиардов рублей до 2031 года. А Яндекс планирует потратить на его развитие более 40 миллиардов. Просто все поняли, что это не хайп на пару лет, а новый расклад сил, и с этим надо как-то считаться.
А вы уже используете AI у себя в компании? Расскажите, как именно вы это делаете, у в сообществе Практики FinOps в Telegram. А если не используете, то почему? Будет очень интересно почитать и подискутировать.
Популярные модели нейросетей в облаке: российские реалии
Раз уж мы заговорили про платформы, интересно посмотреть, какие модели компании выбирают чаще всего. Картина получается довольно прозрачная.
Возьмем для примера Yandex AI Studio. На платформе доступно больше 20 моделей: YandexGPT, мультимодальные модели Яндекса, плюс куча опенсорса вроде Qwen, Llama, Mistral. А вот как делится реальное потребление:
YandexGPT — 62,7% трафика. Его в основном используют для RAG-сценариев: поиск по внутренним документам, регламентам, таблицам, базам знаний, пересказ текстов, извлечение данных из договоров и, конечно, корпоративные чат-боты.
Qwen3-235B от Alibaba — 30,9% трафика. Почти треть! Это мощная китайская модель, у которой хорошо с кодом и длинным контекстом. Ее чаще всего берут для агентских систем, где ИИ сам ходит во внешние API и оркестрирует действия. Плюс – автогенерация и доработка кода, сложные цепочки действий поверх внутренних сервисов компании.
GPT-OSS — 5,7% трафика. Это открытые модели от OpenAI, которые Яндекс крутит у себя и отдает через единый API. Их, какправило, используют там, где нужно «западное поведение» модели, но при этом хочется держать все в российском облаке.
В Cloud.ru, к примеру, картина немного другая. Тут доступно больше 20 генеративных моделей с открытым кодом: DeepSeek, Llama 3, Qwen, GLM и та же линейка gpt-oss. Плюс GigaChat 2 MAX — сберовская LLM, которую активно пушат как топовую русскоязычную модель. В тестах MMLU-RU она обгоняет GPT-4o и Claude 2 по ряду метрик.
У Selectel есть Foundation Models Catalog. Это каталог преднастроенных моделей с готовым API. Сейчас он находится в статусе private preview, но идея та же: Llama, Mistral, Qwen и прочие опенсорсные модели из коробки.
VK Cloud и MTS/MWS идут примерно тем же путем: своя MLOps-платформа плюс доступ к популярным LLM.
Как компании выбирают? Если упростить, то так:
Для русского текста и документов берут YandexGPT или GigaChat. Они обучены на больших русскоязычных корпусах, хорошо понимают локальный контекст и бизнес-язык.
Для кода, агентов и экспериментов используют Qwen, DeepSeek, Llama, Mistral. Они дешевле и проще дообучаются под конкретную задачу.
Для совместимости с глобальными стеками берут gpt-oss через OpenAI-совместимый API.
То есть популярность модели у нас определяется не только качеством. Тут играет роль и локальность данных, и русский язык из коробки, и цена за тысячу токенов, и просто удобство интеграции.
Как российский бизнес использует AI в облаке
Хватит теории. Давайте посмотрим, как это работает в реальной жизни.
Перед Лемана Про (бывший Леруа Мерлен) стояла банальная задача: им нужно было писать карточки товаров с описаниями, характеристиками и SEO-тегами. Раньше это делали контент-менеджеры вручную, и создание одной карточки с учетом доработки и правок могло занимать до нескольких часов.
Естественно, это было непозволительно для компании такого масштаба. Поэтому было решено внедрять нейросеть. Сказано — сделано. Модель начала генерировать карточки за несколько секунд, а работа людей теперь сводится только к тому, чтобы проверять готовый результат и при необходимости его корректировать. В результате стоимость создания карточек упала на 95%.
Ренессанс Жизнь решала другую проблему. Их юристы всегда обрабатывали документы от госорганов вручную. Читали бумаги, искали нужные пункты, переносили данные в систему. Рутина убийственная. На один документ уходили в лучшем случае часы, а в худшем — дни. Сейчас это делает нейросеть. Она извлекает все нужное за 20-30 секунд, а юристы только проверяют точность.
Банки.ру запустил AI-чат-бот для 20 миллионов пользователей, который помогает искать финансовые услуги, сравнивать условия, отвечать на типовые вопросы. Сейчас бот обрабатывает примерно 20% самых популярных запросов и постепенно учится большему, разгружая поддержку и давая мгновенные ответы круглосуточно.
Несмотря на разность задач, общий тренд виден невооруженным глазом: облачные нейросети убирают рутину и дают быструю отдачу. Просто берешь готовое, настраиваешь под свои процессы и запускаешь.
Провайдеры облачного AI в России
Теперь вопрос – кто все это предоставляет. Ведь на самом деле полноценных MLOps-платформ в России не так уж и много. Основные игроки выглядят так:
Yandex Cloud
Cloud.ru (бывший SberCloud)
VK Cloud
МТС
Selectel
Остальные предлагают просто аренду GPU. То есть голое железо без интеграции готовых инструментов. Бери и настраивай сам все с нуля. Если умеешь и есть время, конечно.
Поэтому теперь — не в железе, а в сервисах. Чтобы сдать в аренду стойки с GPU, большого ума не надо. Большой ум нужен, чтобы обеспечить людям удобство. Теперь качество платформы определяется тем, насколько легко у нее выстроена работа с моделями, насколько быстро можно развернуть решение, насколько хорошо работает оркестрация и мониторинг. Кто сделал проще и быстрее для бизнеса, тот и забрал клиентов.
Что будет с ИИ в России
В общем, картина с ИИ складывается довольно внятно. Теперь, чтобы запустить что-то с нейросетями, нужны дни, а не месяцы. Не нужно сразу замораживать миллионы в железе. И не нужна команда профессионалов, чтобы хотя бы попробовать. Это сильно снижает порог входа.
Поэтому сомнений в том, что рынок будет расти, нет никаких. Компании видят результат здесь и сейчас и сразу думают, а где еще можно применить ИИ. Провайдеры тоже способствуют популяризации нейронок, вкладывая миллиарды, наращивая инфраструктуру и снижая цены.
И чем дальше, тем проще становится войти. Пока круг не сломается, остановки не будет. А ломаться он явно не собирается, судя по тому, сколько денег туда летит.
Так что те, кто еще пять лет назад смеялся над ИИ, а потом испугался — теперь активно внедряют. И, похоже, правильно делают.