Полностью самостоятельная разработка LLM дело дорогое, требующее высококвалифицированных кадров (математиков и инженеров), высокопроизводительного оборудования (графических ускорителей, быстрой памяти и процессоров), и, самое главное, наличие школы. Часто эффективные менеджеры недооценивают необходимость опыта в разработке и производстве чего-либо. Наличие желания и денег не всегда приводит к нужному результату.

В этой статье я рассмотрю возможное развитие национальной LLM со своей точки зрения, которая, как вы понимаете, может быть ошибочной, либо меняться под давлением обстоятельств.

Введение

На сегодня страны, которые успешно разработали и широко эксплуатируют свои LLM, можно пересчитать по пальцам — в топах США и Китай. Вторая лига — Франция, Южная Корея. Есть страны, в которых плотно работают с суверенными моделями (Япония, Индия и т.д.), здесь граница с лидерами достаточно размыта. Во многих странах созданы и работают национальные LLM, обычно на базе какого-либо университета или центра, но говорить об их широком использовании и, соответственно, оценить уровень качества достаточно сложно. Россия, как всегда, особый случай.

Сейчас государственная политика России в области развития ИИ базируется на двух документах: Указ Президента Российской Федерации “О развитии искусственного интеллекта в Российской Федерации” №490 от 10.10.2019 и  Постановление Правительства Российской Федерации от 9 июня 2025 г. N 861 "О Центре развития искусственного интеллекта при Правительстве Российской Федерации". Эти два документа достаточно внятно демонстрируют, что государство озабочено отставанием в развитии нейросетей, понимает причины, и готово помочь в масштабировании реальных проектов. При этом фактически снимает с себя обязанность самостоятельно разработать и эксплуатировать национальную LLM c нуля, оставляя это крупным корпорациям. Честно говоря, я этот подход поддерживаю. Например, в Казахстане работает национальная КазLLM, разработанная Институтом умных систем и искусственного интеллекта (ISSAI). Но буквально недавно этот проект был раскритикован на самом высоком уровне, президент Казахстана задал вопрос о проблемах развития национальной LLM, и её популярности у жителей.

Новые идеи

Как всегда существует мнение, что все всё делают неправильно, на самом деле путь к AGI совершенно другой. Для таких мыслителей созданный Центр развития искусственного интеллекта стал шансом на реализацию собственных идей.

Полагаю, что уже сейчас Центр столкнулся с тысячами заявок на приоритетное внедрение разного рода оригинальных ИИ. Уверен, каждая такая заявка включает обстоятельный анализ кризиса LLM, безусловность тупика западного ИИ-строения. С другой стороны обязательно будет упомянуто, что отставание от Запада имеет экзистенциальный характер, и нужно что-то срочно делать.

При этом сами концепции выглядят серьезно, подкреплены патентами и научными регалиями авторов. Возможно, чиновники даже попытаются разобраться в парочке (или найти для этого специалистов), но эти концепции потому и прорывные, что разобраться в них невозможно. Я хотел привести типовые примеры, но крайне сложно их типизировать, фантазия человека безгранична. Впрочем, ключевые термины — резонанс, поле, графы, магические свойства избранных чисел (3, 6, 8, 7, 12, 13, 18 и т.д.), со-знание, с-мысл и ра-з-ум, устойчивость, автономность, саморазвитие, гиперплоскости и матаппарат, требующий годы работы математика уровня Перельмана.

Даже если чиновники честно попытаются разобраться в этом потоке идей, найти здравое зерно будет невозможно. Именно поэтому здравомыслящие люди включили в положение Центра правило, что его действие не распространяется на фундаментальные и прикладные научные исследования, а также на образование. При этом в функции Центра входит «разработка и тиражирование решений» на базе ИИ. То есть, ребята, когда сделаете, приходите показывать, поможем развить. Проблема в том, что чтобы показать проект, нужно его реализовать в ПО и железе, а у авторов денег нет. Впрочем, учитывая тысячи идей и дефицит ресурсов, вынужден буду согласиться, пока авторы не реализуют хоть как-то свои мысли, давать государственные деньги нет смысла.

И вполне логичная для чиновника мысль — если в этих концепциях есть здравое зерно, они бы давно были реализованы на Западе. Тот же символьный ИИ, попытки его реализовать столкнулись с принципиальными ограничениями, и не помогли никакие инвестиции. У нас же каждая вторая идея это перепев символьного ИИ с добавлением эзотерики, или Задорнова, или квантов (что бы под этим не понимали авторы).

Что с разработчиками

Основная масса разработчиков ИИ в России это, конечно, разного рода оптимизаторы опенсорсных моделей, единственные, кто выделяется это, естественно, GigaChat (Сбер) и Алиса (Яндекс). При этом, если представители Сбера утверждают, что GigaChat 3.0 полностью самостоятельная разработка, то представители Яндекса не скрывают, что в пайплайн обучения своей модели включено использование весов Qwen.

Цитата представителя Яндекс: 

Но что, если использовать опенсорс иначе? Что, если взять обычный, полный цикл обучения модели, который включает в себя многоэтапные Pretrain, SFT, RL и в котором мы уже накопили большой опыт, а затем добавить к нему ещё одну составляющую — веса общедоступной модели? Так мы и сделали: инициализировали наш пайплайн обучения не случайными весами, а весами модели Qwen-2.5-32B-base (именно base, потому что instruct-версия показала результаты хуже).

Причины использования опенсорса понятны, Яндекс прямо говорит:

Совмещение весов из общедоступной модели и нашего обычного полного цикла обучения позволило нам сократить длительность экспериментов до 20 раз и сэкономить ресурсы на подбор оптимальных параметров.

Сокращение длительности экспериментов в 20 раз, это не просто сокращение времени. Стабильная база снижает риски на всех последующих этапах: меньше нестабильных прогонов, быстрее сходимость, меньше отладки. Реальная экономия на персонале, железе и электроэнергии существенно выше, чем кажется на первый взгляд. Даже корпорации уровня Яндекса вынуждены это учитывать.

Проблема в том, что такое сокращение расходов имеет и негативный момент, который часто недооценивают. У инженеров не нарабатывается опыт, отсутствует накопленная культура экспериментов, цепочка ошибок и исправлений в разработке LLM с нуля. Как результат, мы молчаливо соглашаемся с тем, что наша LLM всегда будет на уровне около лучшего опенсорса.

Сбер осенью 2025 года выкатил открытые веса GigaChat 3.0 С учетом того, что это их полностью собственная разработка, это очень здорово. Проблема в том, что эта модель до сих пор отсутствует в публичном инференсе, то есть, попробовать могут лишь счастливые обладатели достойного железа. Поскольку я к таким не отношусь, сказать о качестве этой модели я ничего не могу. Но сам факт этого отсутствия говорит о наличии проблем. Хотя разработчики говорят о продолжающемся дообучении модели, я полагаю, что всё дело в отсутствии серверных мощностей. И, учитывая реплику Яндекса о 20-кратной экономии при использовании чужих весов, похоже эта проблема критична в условиях России.

Нужно учесть, что там где условный Anthropic сможет провести 100 экспериментов, в условиях нехватки мощностей можно будет провести пять или десять, что неизбежно будет увеличивать отставание в качестве ИИ.

Перспективы

Так какие же перспективы у флагманской ЛЛМ в России. Честно говоря, возможности предоставления общего доступа к нейросети уровня топов США я не вижу. У государства и корпораций просто нет стимула (и денег) финансировать такую благотворительность. Можете оценить уровень опенсорса, и примерно такое вы и сможете получить. 

Но, обратите внимание на важное для понимания перспективы условие, все зарубежные проприетарные LLM фактически не имеют права работать на территории РФ, так как не хранят персональные данные на территории России. Кроме того, государство делит модели ИИ на отечественные и доверенные. Отечественные — модели, использующие опенсорс, доверенные полностью созданные самостоятельно. При этом только доверенные модели могут использоваться в государственных органах и критичных отраслях (понятие очень растяжимое). Именно поэтому разработчики регулярно обращают внимание на самостоятельность разработки.

То есть миллиарды рублей, вложенные в разработку собственной LLM, возможно компенсировать за счёт оказания услуг государству и платежеспособным компаниям. В этом будет способствовать и установление обязательных показателей для государственных организаций и корпораций по внедрению ИИ в свою деятельность. 

Очень заманчиво, конечно, вовлечь в поток денежных средств и население, но пока есть хоть какой-то доступ к Claude, Gemini, ChatGPT, Deepseek и т.д. это очень сложно.

Другие перспективы

Ещё один вариант, это разработка специализированных инструментов на базе LLM. Этим, кстати, очень плотно занимается и Сбер, и Яндекс. В этом случае недостаток общего уровня компенсируется логикой конкретной задачи. Медицина, транспорт, CRM, картинки, боты в поддержке и так далее. Более того, возможно это единственный шанс на достойную монетизацию своих разработок.

Но здесь большая конкуренция со стороны независимых разработчиков, которые вполне успешно работают с опенсорсными моделями. С одной стороны, это очень хорошо для конкуренции и прогресса, с другой стороны, возникает соблазн слегка расширить понятие критичных отраслей, и решить вопрос поддержки доверенных LLM.

Заключение

Флагманская LLM в России, я считаю, вполне реальна. Другой вопрос, не стоит требовать от нее сопоставимого с нейросетями за миллиарды долларов уровня, и скорее всего она будет доступна далеко не всем, но основные потребности среднего пользователя такая LLM закроет вполне успешно.

Комментарии (16)


  1. virst
    05.03.2026 11:08

    Может признаем, что по-настоящему крупные и прорывные проекты возможны только при максимальной доступности технологий и специалистов. Делая проекты "национальной" специфики, мы осознанно себя ограничиваем и вводим услужения которых не было бы при других условиях. Логичнее сделать просто крутой проект, а уже потом пробовать его локализовывать.


    1. Kamil_GR Автор
      05.03.2026 11:08

      К сожалению, не всегда желания совпадают с возможностями.


    1. vitalist84
      05.03.2026 11:08

      Со стороны выглядит так, что в развитии LLM суперкрутые специалисты не нужны. Постепенно выжимают из трансформера все больше и больше. Аналогично похоже будет и с альтернативной версией ИИ, сделают прорывную модель, потом будут долго подкручивать все кому не лень. А вот с железками беда - это реальный хайтек, дорогой и под санкциями.


  1. vlsnake
    05.03.2026 11:08

    В целом мотивация автора понятна - он хочет гордиться своей страной, которая смогла... А вот какая мотивация у разработчиков этого самого ИИ я не вижу этого в статье.

    "Другой вопрос, не стоит требовать от нее сопоставимого с нейросетями за миллиарды долларов уровня" - Почему? Может как раз стоит сразу ставить уровень выше, чем у аналогов. Может хватит искать причины почему нельзя ($, просто численность населения, количество потребителей и т.п.) и начать двигаться вперед?


    1. Kamil_GR Автор
      05.03.2026 11:08

      Может хватит искать причины почему нельзя ($, просто численность населения, количество потребителей и т.п.) и начать двигаться вперед?

      Как бывший эффективный менеджер, скажу, что ваша позиция мне очень близка.


    1. acsent1
      05.03.2026 11:08

      А как ставить планку выше не имея тех самых миллиардов долларов?


  1. pavia
    05.03.2026 11:08


    Если главная мотивация автора гордиться своей страной, то для него всё очень плохо, незавимо от того сможет та страна или нет, продукты делают не страны а люди, этого автор не понимает.


    1. Kamil_GR Автор
      05.03.2026 11:08

      Странное, и весьма нелогичное заявление. Может уточните, где вы это увидели?


  1. Emulyator
    05.03.2026 11:08

    По моему опыту, в задачах по написанию связанного литературного текста на русском (какой-нибудь детский рассказ) локально на потребительской видюхе (5060 Ti 16Гб) отечественные модели (яндекс/сбер) показывают себя существенно лучше, чем прочие буржуйские, влезающие в память. Понятно, что не уровень человека, но хотя бы рода не путают. Так что в этом плане, я "за" развитие отечественных нейронок, а флагсанских или не очень не важно, лишь бы было какое-то преимущество перед конкурентам (скорость, размер, качество, уникальные фичи и т.п.).


  1. Liugger
    05.03.2026 11:08

    Я что-то не понял а чем плохо, что Яндекс взял веса Квена и начал обучение с них, а не инициализировал их случайно?

    Какие тут компетенции и опыт теряются?

    Просто экономия компьюта за счет старта обучения из локального минимума из другого, но похожего пространства весов.

    Самое сложное и требующее компетенций людей как раз остается и никуда не уходит


    1. Kamil_GR Автор
      05.03.2026 11:08

      Возможно это так. Но теряется именно опыт работы с нестабильным pretrain с нуля. Да, это кажется маловажным, но это пока Qwen доступен.

      И самое интересное, если бы инициализация из чужих весов была просто техническим трюком, Яндекс с его ресурсами мог бы позволить себе обойтись без Квен (избавившись от лейбла использования опенсорса). Но они не стали. Значит дело не только в деньгах, но и в качестве.

      позволило нам сократить длительность экспериментов до 20 раз

      если бы речь шла о незначащих навыках, думаю, Яндекс так бы не сказал.


    1. vitalist84
      05.03.2026 11:08

      Я не очень глубоко разбираюсь, но думаю веса можно вставить только в ту же самую архитектуру на которой они натренировались. Если захочется поменять архитектуру, то веса уже не сработают. А это ограничение.


  1. worldown
    05.03.2026 11:08

    Кратко: Нет своего железа - нет своей LLM


  1. Andreas_Fogel
    05.03.2026 11:08

    Можем сказать так, в мире llm распространяется за данные. Когда мы делимся ими с китайцами или американцами, то это более безопасная тема, нежели когда мы пишем тестовые запросы и через время оказываемся в местах отдаленных. Об этом же так все боятся говорить. Вот мы и получаем, что эти самые llm просто не хотят делать наши разрабы, так как их будут использовать против нас самих. Вы же знаете сколько людей потеряло свою работу, но при этом переобучение дорого и для некоторых невозможно. Нету у нас стратегии обеспечить людей работой и знаниями. Поэтому сама тенденция сделать что-то стоящее ограничивается самой ситуацией, которая сложилась. А точно у нас же большие компании никому платить не хотят за разработку, ведь они могут просто своровать и сказать, что это они молодцы.


  1. avshkol
    05.03.2026 11:08

    Часто эффективные менеджеры недооценивают необходимость опыта в разработке и производстве чего-либо.

    Опыт в llm? Этой сфере реально 3-4 года (с конца 2022, когда gpt3 взлетел). И 90% этого опыта размещено в открытом доступе, изучай и экспериментируй...

    Проблема в том, что такое сокращение расходов имеет и негативный момент, который часто недооценивают. У инженеров не нарабатывается опыт, отсутствует накопленная культура экспериментов, цепочка ошибок и исправлений в разработке LLM с нуля. Как результат, мы молчаливо соглашаемся с тем, что наша LLM всегда будет на уровне около лучшего опенсорса.

    Насколько нужна культура создания llm с нуля? (Большей частью состоящая из возможности попользоваться всем, что "плохо лежит " в интернете, на пиратских сайтах...), думаю культура оптимизации и развития того, что есть, намного ценнее...

    Честно говоря, возможности предоставления общего доступа к нейросети уровня топов США я не вижу. У государства и корпораций просто нет стимула (и денег) финансировать такую благотворительность. Можете оценить уровень опенсорса, и примерно такое вы и сможете получить. 

    Тот факт, что есть конкуренция между Сбером и Яндексом, уже плюс. А уровень топов достигается за полгода-год (вспомните, что представляли собой топы год назад?)


    1. Kamil_GR Автор
      05.03.2026 11:08

      Я предполагал и предполагаю, что обучение ллм с нуля это непрерывный процесс проб и ошибок. Если вы обратили внимание, представитель Яндекса сказал не о сокращении срока обучения, а продолжительности экспериментов.

      Даже обучение маленькой сети на конкретную задачу - представляет собой сотни итераций проб и ошибок. Гиперпараметры, архитектура, настройки. В случае с ллм сложность растет как бы не экспоненциально.

      Проблема решается обычно либо железом - процессы распараллеливаются, ускоряются, автоматизируются. Либо опытом, понимание что и как делать.

      Если есть эксперименты - есть опыт. Нет экспериментов, нет опыта.

      Я не знаю кухню Антропик или опенАи или Google. Впрочем, как, наверное, и вы. Но пока LLM обученные вне кластеров этих компаний отстают. Пусть для среднего пользователя они выглядят лишь чуть-чуть хуже топов. Но по факту, разрыв более чем ощутим.

      И даже производственная мощь Китая пока не позволяет хотя бы сравняться.

      Почему? Опыт и железо. Без проб не будет опыта, без железа не будет проб.

      Использование опенсорса мера вынужденная и нужная. Но нужно здраво оценивать последствия.