Индустрия ИИ переживает рекордный бум: каждую неделю появляются новые модели, а заголовки пестрят новостями о многомиллионных контрактах и громких переходах звёздных исследователей. Прорывы происходят на всех уровнях: от чипов и инфраструктуры (NVIDIA и др.) до моделей и инструментов вроде Cursor или Windsurf.
Но у российских разработчиков выбор заметно ýже: ограничения, VPN, трудности с оплатой. Мы решили это изменить и создали Koda — AI-помощника, который доступен бесплатно и без VPN, работает с современными моделями и привычными функциями: автодополнение кода, чат, поиск по документации и коду проекта, а также агентный режим!
Что такое Koda?
Koda — AI-помощник для разработчика, который работает без VPN, отлично понимает русский язык и предоставляет доступ к современным моделям прямо из вашей IDE. Подойдёт и новичкам, и опытным разработчикам: от генерации простых сниппетов до сложных агентных сценариев с многими шагами.
Основные режимы работы
В Koda есть все ключевые форматы взаимодействия, знакомые по западным AI-ассистентам — но редко встречающиеся в российских аналогах:
Completion — автодополнение кода в реальном времени, прямо во время набора.

Chat — полноценный чат с моделью, который понимает и русский, и английский, и контекст вашего проекта.

Retrieval — поиск по документации, включая RAG-режим с подгрузкой данных из ваших источников.

Agent — пошаговое выполнение сложных задач с разбиением на подзадачи и автоматизацией рутины.
Важная работа, которую не видно с первого взгляда
Команда Koda начала изучать кодогенерацию на базе LLM ещё в 2021 году — задолго до появления культового Copilot. Именно наша команда стояла у истоков GigaCode, который стал популярным не только в экосистеме Сбера, но и за её пределами.
Покинув крупные корпорации, мы объединились как независимая команда, чтобы сделать продукт, который решает реальные задачи разработчиков.
Если говорить про технические детали, то под капотом у Koda ни одна, ни две, а целых 5 моделей взаимодействующих друг с другом для достижения лучшего результата. Подробнее про нюансы внутреннего устройства Koda мы расскажем в следующих статьях.
Мы продолжим развивать Koda, расширяя функциональность на основе нашего видения идеального инструмента и вашего фидбека. В ближайших планах — плагин для JetBrains IDE, консольная утилита, а также улучшение понимания конкретных технологий, языков, фреймворков и библиотек.
А это бесплатно?
Для индивидуальных разработчиков Koda сейчас полностью бесплатен — достаточно авторизоваться через GitHub. Мы хотим, чтобы так было всегда, но многое зависит от внешних факторов. Если когда-нибудь появится подписка, мы предупредим заранее, а часть моделей точно останется бесплатной.
Сейчас, в режиме preview, доступно 1 000 бесплатных запросов к внешним моделям, включая топовые. Когда лимит закончится, можно подключить свои токены или продолжить работать с бесплатными моделями от Koda — они тоже показывают отличные результаты.
А как попробовать?
Установите плагин Koda для VS Code.
Авторизуйтесь через GitHub.
Выберите нужный режим — и работайте так, как привыкли.

Никаких VPN, прокси и танцев с IP. Установили — и готово. Если появятся вопросы — пишите в наш Telegram-чат и присоединяйтесь к нашему Telegram-каналу.
FAQ
-
Что делать, если 1 000 бесплатных запросов закончатся?
Вы можете подключить свои оплаченные модели, указав токен доступа к стороннему провайдеру. Часть моделей с префиксом Koda остаётся доступной бесплатно. В будущем мы планируем реализовать подписочную модель для упрощения доступа к мощным моделям.
-
Планируется ли внедрение подписок на модели?
Да. После завершения периода бета-тестирования (preview) мы предложим платные подписки. При этом некоторые модели останутся бесплатными.
-
У меня есть доступ к зарубежным AI-провайдерам, могу ли я ими воспользоваться?
Да. Добавьте модель через интерфейс Add Chat Model, выберите нужного провайдера и введите свой токен доступа.
-
Когда ждать поддержку JetBrains IDE?
Мы уже работаем над версией для JetBrains IDE и рассчитываем выпустить её в течение ближайшего месяца.
-
Как использовать Koda в CLI?
Пока такая возможность отсутствует, но мы рассматриваем её добавление в будущем.
-
Отправляет ли Koda мой код на свои серверы?
Да. Код отправляется на серверы с GPU, где его обрабатывают модели. Если вы хотите избежать передачи кода на наши серверы, мы предлагаем корпоративные решения с развертыванием on-premise или on-cloud. Свяжитесь с нами, чтобы узнать детали.
-
Какие языки программирования и фреймворки поддерживает Koda?
Более 35 популярных языков и фреймворков, включая те, что занимают лидирующие позиции на GitHub.
-
Можно ли получить API зарубежных моделей для использования в стороннем сервисе через Koda?
Нет, мы не предоставляем такой возможности.
-
Не нашел нужного вопроса
Свяжитесь с нами — мы поможем вам получить нужную информацию.
Комментарии (66)
danilovmy
14.08.2025 09:41Больше Code-wisperers хороших и разных.
Оставлю тут: Zencoder-AI, от русских разработчиков появился точно на 2 года раньше Koda-AI и понимает русский.
Такой же плагин, те же функции. А вы точно не списывали, или это ребрендинг Zencoder под русскую аудиторию?
functyon
14.08.2025 09:41попробую, когда выйдет под jetbrains
Dmitry_zm Автор
14.08.2025 09:41JetBrains версию пилим
sl4mmer
14.08.2025 09:41когда ждать?)
Dmitry_zm Автор
14.08.2025 09:41Надеюсь через месяц будет готова.
Dmitry_zm Автор
14.08.2025 09:41Еще будет CLI клиент. Тоже пилим.
Spyman
14.08.2025 09:41Только пожалуйста - проверяйте результат. Почти весь инструментарий для работы с llm как будто этими llm и написан. Тот же continue кладет intelij idea, постоянно глючит (на уровне интерфейса) и выглядит коряво. Десктопные клиенты зачастую не умеют в копи-паст - вообще бред.
А возможность подключить свои локальные модели будет?
Dmitry_zm Автор
14.08.2025 09:41Да, с версией для JetBrains у Continue есть проблемы
Локальную модель можно подключить для chat и agent роли. Для этого нужно открыть конфиг моделей и прописать вашу модель.
- name: model
provider: ollama
model: model
roles:
- chat
В сообществе можно найти такие ответы.
MonkeyWatchingYou
14.08.2025 09:41Добрый день. Где именно можно узнать оставшееся кол-во запросов?
Dmitry_zm Автор
14.08.2025 09:41Когда выбираете модель с подписью trial то внизу чата появляется индикатор оставшихся запросов
MonkeyWatchingYou
14.08.2025 09:41Спасибо! Первый раз решился использовать инструментарий такого рода (не связан с ИТ, хобби только). Впечатлило.
Dharmendra
14.08.2025 09:41Что-то мне до боли напоминает эта неоновая илюминация-подсветка окошка при ожидании ответа на запрос юзера.. и модельки в олламе как-то странновато запускаются, где-то я именно эту тупую проблему с олламой ("num_gpu": 0 в запросах к эндпоинту) и видел.. Вспомнить бы где.. Чтобы это могло быть?.. Roo? :)
Dmitry_zm Автор
14.08.2025 09:41Вот не понял вопроса или к чему это вы) Есть какая-то проблема?
danilovmy
14.08.2025 09:41Он, вероятно, к тому, что внешний вид koda-ai похож на ollama-webUI. @Dharmendra - я верно угадал?
fcoder
14.08.2025 09:41А где найти бенчмарки? Было бы интересно посмотреть разные сравнения с популярными моделями которые используются в claude code, openai codex и так далее
Dmitry_zm Автор
14.08.2025 09:41Да, по возможности будем рассказывать в следующих статьях про бенчмарки. Но к примеру в Koda доступны топовые китайские модели, которые почти не уступают Claude Sonnet 4, которая работает в Claude Code. Например модель GLM 4.5
Syomad
14.08.2025 09:41В чем преимущества перед, допустим Roo Code или Kilo Code? Не совсем понял, если честно - они тоже работают без всяких VPN, с mcp, rag, кастомными промтами, режимами и проч
Dmitry_zm Автор
14.08.2025 09:41Как минимум поддерживаем работу на русском языке лучше и не сильно отстаем от них по основной функциональности.) У нас можете пользоваться бесплатно моделями с приставкой Koda и еще 1000 запросов к trial моделям получить.)
nbkgroup
14.08.2025 09:41То есть это форк Contiunue, но без поддержки ollama?
Spyman
14.08.2025 09:41Скам получается какой-то)
Хотя и continue настолько кривой (для intelij idea), что сам - Скам)
Dmitry_zm Автор
14.08.2025 09:41Ну Cursor тоже форк VSCode)
Spyman
14.08.2025 09:41Вы выше уже ответили что локальные модели можно подключить (хоть и там через конфиги а не из ui, но оно и у contine через жопу, все по Эскобару), так что моя претензия что проект Скам полностью снимается))
Просто если бы оно действительно было "взять opensource проект, вырезать из него возможность пользоваться своими моделями, вставить проприетарные модели и продавать доступ" - это прямо плохо)
Dmitry_zm Автор
14.08.2025 09:41Да, это форк Continue. MIstral, кстати, тоже форкнулись с Continue и сделали свое решение.
germn
14.08.2025 09:41Для меня пока что главный затык — не ВПН, русский язык или платность, а качество модели. В копайлоте есть и GPT, и Sonnet. Даже в бесплатном. А у вас что?
Dmitry_zm Автор
14.08.2025 09:41Недавняя GLM 4.5 например сильна и особо не уступает Sonnet 4 а на некоторых бенчах репортят, что даже лучше. Попробуйте эту модель.
Тут можно почитать про GLM 4.5 https://z.ai/blog/glm-4.5
dyadyaSerezha
14.08.2025 09:41моделями от Koda — они тоже показывают отличные результаты
А есть какие-то сравнительные данные, насколько "тоже"?
Dmitry_zm Автор
14.08.2025 09:41В наших моделях мы используем топовые опенсорс модели и дообучаем их. Будем рассказывать позже в новых статьях про Koda. Но в целом мы еще в пути к получению наших лучших моделей))
dyadyaSerezha
14.08.2025 09:41Да, на z.ai очень впечатляющие результаты сравнений. Тогда вопрос - сколько стоит железо для обучения и какое оно (без деталей)? Вроде как все это должно стоить кучу бабок. Где деньги, Зин?)
gkaliostro8
14.08.2025 09:41Сейчас "Авторизуйтесь через GitHub не проходит, т.к. даже через впн GitHub выдает, что в вашей стране ограничения
Dmitry_zm Автор
14.08.2025 09:41А напишите в сообщество Koda со скринами. Не понял почему не проходит авторизация через gitHub. Должно работать.
RexcodingAI
14.08.2025 09:41Очень странно. У меня VS Code авторизуется через GitHub без проблем. Правда, GitHub Copilot все равно не хочет работать. Но оно мне уже не надо.
kibiman
14.08.2025 09:41А подключиться к llama.cpp запущенном как сервер на http://127.0.0.1:8081/v1
Ну или к серверу с llama.cpp можно ?
Dmitry_zm Автор
14.08.2025 09:41RexcodingAI
14.08.2025 09:41Когда Cline стал полностью платным, я попробовал подключить к нему Mistral на сервере LM Studio. Результат поразил! Cline каким-то макаром открыл контекстное окно в 131000 токенов и моя видеокарта встала на взлетную полосу:)) В самом LM Studio модель работает прекрасно.
QweLoremIpsum
14.08.2025 09:41А как mcp настраивать? Я что то не нашел это в документации
Dmitry_zm Автор
14.08.2025 09:41Возможность добавить MCP будет в следующей версии. Пока такой возможности нету.
Dharmendra
14.08.2025 09:41поигрался с разными опенсорц моделями и вашими "собственными". Ну, мягко говоря, это не работает. Вообще. По сравнению с любыми даже cli агентами - это блокер. Как не было нормального RAG/func/tool calling, так и нету у всех этих опенсорсных форков "агентов". Нет каскадного планирования и выполнения плана шагов и самое главное - нет нормального применения патчей, модели чтото выдают, одному б-гу известное и каждый раз разное - явно парсер function не может делать различие между форматом данных у каждой модели - сработало - ништяк, не сработало - ну и ладно. То ошметки кода (руками вписывать?), то какие-то советы вместо патчей.
Кароче - в утиль. Не похож совсем на Cursor и даже не примитивненький Copilot, ни тем более на claude/gemini/codex cli... ничего.
Взяли опенсорсный кривой continue, не приходя в сознание и наточили его на свой ДЦ где развернули серверы с GPU. И все это ужасно тормозит - мощностей ДЦ явно маловато.
А свое-то что сделали? Сколько своего кода написано дополнительно к "импортозаместительному" переклеиванию названий? Ну хочется верить, что все же когда-нибудь сделают.
Но, пока это даже не пре-альфа - или фальшстарт маркет олухов, или все как обычно, ну вы поняли...
Проекту и команде искренне желаю удачи все же однажды сделать агента и облако не хуже Cursor'a! Пусть у вас все получится.Dmitry_zm Автор
14.08.2025 09:41Спасибо за мнение!
А можете сюда или чат сообщества ваших кейсов накидать, где отработало плохо или ошибки, которые встретили? Чтобы предметно понять, что улучшить.
Axelaredz
14.08.2025 09:41Попробуй https://chat.qwen.ai сверху модель сменить на Qwen3 Coder.
Войти через гугл.
Он меня очень удивил. Почти не допускает ошибок, за исключением случаев, когда человек путает свои желания и логику.
Так например собрал с помощью него мощного бота для телеграм.
PML
Спасибо за материал! Подскажите "Авторизуйтесь через GitHub" - это обязательный пункт?
Dmitry_zm Автор
Нет, не обязательно. Только если вы хоти использовать trial модели не наши.
VitaminND
"If you prefer not to sign in, you can use Koda with your own API keys or local model."
Т.е. если использовать ваши модели, то нужно авторизоваться через GitHub.
А можно ему скормить папку проекта и задавать вопросы, чтобы он сам менял файлы по согласованию с разработчиком? Вот как, например, в Warp
Dmitry_zm Автор
Да, модели с названием KodaChat и КоdaAgent будут работать без аутентификации.
Да, можно так и написать возьми такуюто папку пойми что там и перепиши код