Индустрия ИИ переживает рекордный бум: каждую неделю появляются новые модели, а заголовки пестрят новостями о многомиллионных контрактах и громких переходах звёздных исследователей. Прорывы происходят на всех уровнях: от чипов и инфраструктуры (NVIDIA и др.) до моделей и инструментов вроде Cursor или Windsurf.

Но у российских разработчиков выбор заметно ýже: ограничения, VPN, трудности с оплатой. Мы решили это изменить и создали Koda — AI-помощника, который доступен бесплатно и без VPN, работает с современными моделями и привычными функциями: автодополнение кода, чат, поиск по документации и коду проекта, а также агентный режим!

Что такое Koda?

Koda — AI-помощник для разработчика, который работает без VPN, отлично понимает русский язык и предоставляет доступ к современным моделям прямо из вашей IDE. Подойдёт и новичкам, и опытным разработчикам: от генерации простых сниппетов до сложных агентных сценариев с многими шагами.

Основные режимы работы

В Koda есть все ключевые форматы взаимодействия, знакомые по западным AI-ассистентам — но редко встречающиеся в российских аналогах:

  • Completion — автодополнение кода в реальном времени, прямо во время набора.

  • Chat — полноценный чат с моделью, который понимает и русский, и английский, и контекст вашего проекта.

  • Retrieval — поиск по документации, включая RAG-режим с подгрузкой данных из ваших источников.

  • Agent — пошаговое выполнение сложных задач с разбиением на подзадачи и автоматизацией рутины.

Важная работа, которую не видно с первого взгляда

Команда Koda начала изучать кодогенерацию на базе LLM ещё в 2021 году — задолго до появления культового Copilot. Именно наша команда стояла у истоков GigaCode, который стал популярным не только в экосистеме Сбера, но и за её пределами.

Покинув крупные корпорации, мы объединились как независимая команда, чтобы сделать продукт, который решает реальные задачи разработчиков.

Если говорить про технические детали, то под капотом у Koda ни одна, ни две, а целых 5 моделей взаимодействующих друг с другом для достижения лучшего результата. Подробнее про нюансы внутреннего устройства Koda мы расскажем в следующих статьях.

Мы продолжим развивать Koda, расширяя функциональность на основе нашего видения идеального инструмента и вашего фидбека. В ближайших планах — плагин для JetBrains IDE, консольная утилита, а также улучшение понимания конкретных технологий, языков, фреймворков и библиотек.

А это бесплатно?

Для индивидуальных разработчиков Koda сейчас полностью бесплатен — достаточно авторизоваться через GitHub. Мы хотим, чтобы так было всегда, но многое зависит от внешних факторов. Если когда-нибудь появится подписка, мы предупредим заранее, а часть моделей точно останется бесплатной.

Сейчас, в режиме preview, доступно 1 000 бесплатных запросов к внешним моделям, включая топовые. Когда лимит закончится, можно подключить свои токены или продолжить работать с бесплатными моделями от Koda — они тоже показывают отличные результаты.

А как попробовать?

  • Установите плагин Koda для VS Code.

  • Авторизуйтесь через GitHub.

  • Выберите нужный режим — и работайте так, как привыкли.

Никаких VPN, прокси и танцев с IP. Установили — и готово. Если появятся вопросы — пишите в наш Telegram-чат и присоединяйтесь к нашему Telegram-каналу.

FAQ
  1. Что делать, если 1 000 бесплатных запросов закончатся?

    Вы можете подключить свои оплаченные модели, указав токен доступа к стороннему провайдеру. Часть моделей с префиксом Koda остаётся доступной бесплатно. В будущем мы планируем реализовать подписочную модель для упрощения доступа к мощным моделям.

  2. Планируется ли внедрение подписок на модели?

    Да. После завершения периода бета-тестирования (preview) мы предложим платные подписки. При этом некоторые модели останутся бесплатными.

  3. У меня есть доступ к зарубежным AI-провайдерам, могу ли я ими воспользоваться?

    Да. Добавьте модель через интерфейс Add Chat Model, выберите нужного провайдера и введите свой токен доступа.

  4. Когда ждать поддержку JetBrains IDE?

    Мы уже работаем над версией для JetBrains IDE и рассчитываем выпустить её в течение ближайшего месяца.

  5. Как использовать Koda в CLI?

    Пока такая возможность отсутствует, но мы рассматриваем её добавление в будущем.

  6. Отправляет ли Koda мой код на свои серверы?

    Да. Код отправляется на серверы с GPU, где его обрабатывают модели. Если вы хотите избежать передачи кода на наши серверы, мы предлагаем корпоративные решения с развертыванием on-premise или on-cloud. Свяжитесь с нами, чтобы узнать детали.

  7. Какие языки программирования и фреймворки поддерживает Koda?

    Более 35 популярных языков и фреймворков, включая те, что занимают лидирующие позиции на GitHub.

  8. Можно ли получить API зарубежных моделей для использования в стороннем сервисе через Koda?

    Нет, мы не предоставляем такой возможности.

  9. Не нашел нужного вопроса

    Свяжитесь с нами — мы поможем вам получить нужную информацию.

Комментарии (66)


  1. PML
    14.08.2025 09:41

    Спасибо за материал! Подскажите "Авторизуйтесь через GitHub" - это обязательный пункт?


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Нет, не обязательно. Только если вы хоти использовать trial модели не наши.


      1. VitaminND
        14.08.2025 09:41

        "If you prefer not to sign in, you can use Koda with your own API keys or local model."

        Т.е. если использовать ваши модели, то нужно авторизоваться через GitHub.


        А можно ему скормить папку проекта и задавать вопросы, чтобы он сам менял файлы по согласованию с разработчиком? Вот как, например, в Warp


        1. Dmitry_zm Автор
          14.08.2025 09:41

          Да, модели с названием KodaChat и КоdaAgent будут работать без аутентификации.

          Да, можно так и написать возьми такуюто папку пойми что там и перепиши код


  1. danilovmy
    14.08.2025 09:41

    Больше Code-wisperers хороших и разных.

    Оставлю тут: Zencoder-AI, от русских разработчиков появился точно на 2 года раньше Koda-AI и понимает русский.

    Такой же плагин, те же функции. А вы точно не списывали, или это ребрендинг Zencoder под русскую аудиторию?


    1. Dmitry_zm Автор
      14.08.2025 09:41

      К ZenCoder не имеем отношения никакого.)) И он же забугорный. Вряд ли они под русский затачивали модели.


      1. furie
        14.08.2025 09:41

        А как вы затачивали модели под русский язык?


        1. Dmitry_zm Автор
          14.08.2025 09:41

          Дообучали на стадии SFT+RL ну и промты для русского подбирали.


  1. functyon
    14.08.2025 09:41

    попробую, когда выйдет под jetbrains


    1. Dmitry_zm Автор
      14.08.2025 09:41

      JetBrains версию пилим


      1. sl4mmer
        14.08.2025 09:41

        когда ждать?)


        1. Dmitry_zm Автор
          14.08.2025 09:41

          Надеюсь через месяц будет готова.


          1. Dmitry_zm Автор
            14.08.2025 09:41

            Еще будет CLI клиент. Тоже пилим.


            1. Spyman
              14.08.2025 09:41

              Только пожалуйста - проверяйте результат. Почти весь инструментарий для работы с llm как будто этими llm и написан. Тот же continue кладет intelij idea, постоянно глючит (на уровне интерфейса) и выглядит коряво. Десктопные клиенты зачастую не умеют в копи-паст - вообще бред.

              А возможность подключить свои локальные модели будет?


              1. Dmitry_zm Автор
                14.08.2025 09:41

                Да, с версией для JetBrains у Continue есть проблемы

                Локальную модель можно подключить для chat и agent роли. Для этого нужно открыть конфиг моделей и прописать вашу модель.

                - name: model

                provider: ollama

                model: model

                roles:

                - chat

                В сообществе можно найти такие ответы.


          1. kevin
            14.08.2025 09:41

            Напишите здесь :)


      1. functyon
        14.08.2025 09:41

        нормально делайте!


        1. Dmitry_zm Автор
          14.08.2025 09:41

          ага, постараемся нормально!)


          1. functyon
            14.08.2025 09:41

            спасибо:)


  1. Biga
    14.08.2025 09:41

    Если компания будет использовать Koda, coda.io и так далее, то предложение "посмотри в коде" будет особенно эпичным.


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Не понял о чем это вы)

      А, перечитал и понял))


  1. MonkeyWatchingYou
    14.08.2025 09:41

    Добрый день. Где именно можно узнать оставшееся кол-во запросов?


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Когда выбираете модель с подписью trial то внизу чата появляется индикатор оставшихся запросов


      1. MonkeyWatchingYou
        14.08.2025 09:41

        Спасибо! Первый раз решился использовать инструментарий такого рода (не связан с ИТ, хобби только). Впечатлило.


  1. Dharmendra
    14.08.2025 09:41

    Что-то мне до боли напоминает эта неоновая илюминация-подсветка окошка при ожидании ответа на запрос юзера.. и модельки в олламе как-то странновато запускаются, где-то я именно эту тупую проблему с олламой ("num_gpu": 0 в запросах к эндпоинту) и видел.. Вспомнить бы где.. Чтобы это могло быть?.. Roo? :)


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Вот не понял вопроса или к чему это вы) Есть какая-то проблема?


      1. danilovmy
        14.08.2025 09:41

        Он, вероятно, к тому, что внешний вид koda-ai похож на ollama-webUI. @Dharmendra - я верно угадал?


  1. comerc
    14.08.2025 09:41

    опубликуйте на open-vsx.org - не только vscode же


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Спасибо, хорошая идея.


  1. Igorgro
    14.08.2025 09:41

    Возможно я придираюсь, но такое ощущение, что интерфейс 1:1 как у continue.dev


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Да, мы форкнулись от Continue и переделали его внутри. Мы полгода назад решали с чего начать и решили, что лучше форкнуться от Continue чем писать с нуля.


  1. fcoder
    14.08.2025 09:41

    А где найти бенчмарки? Было бы интересно посмотреть разные сравнения с популярными моделями которые используются в claude code, openai codex и так далее


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Да, по возможности будем рассказывать в следующих статьях про бенчмарки. Но к примеру в Koda доступны топовые китайские модели, которые почти не уступают Claude Sonnet 4, которая работает в Claude Code. Например модель GLM 4.5


  1. nosikow
    14.08.2025 09:41

    Koda уже нас заменят)


  1. Syomad
    14.08.2025 09:41

    В чем преимущества перед, допустим Roo Code или Kilo Code? Не совсем понял, если честно - они тоже работают без всяких VPN, с mcp, rag, кастомными промтами, режимами и проч


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Как минимум поддерживаем работу на русском языке лучше и не сильно отстаем от них по основной функциональности.) У нас можете пользоваться бесплатно моделями с приставкой Koda и еще 1000 запросов к trial моделям получить.)


  1. vandlog
    14.08.2025 09:41

    А будет версия для Visual Studio?


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Пока не думали на этот счет. Спасибо, подумаем. Ближайшее что делаем -- это JetBrains плагин и Koda CLI


      1. SaNNy32
        14.08.2025 09:41

        А Visual Basic будете поддерживать? )))


        1. Dmitry_zm Автор
          14.08.2025 09:41

          А как же))


      1. u007
        14.08.2025 09:41

        Шутка, в которой только доля шутки: а для Notepad++ можно плагин? Часто редактирую скрипты в нём, когда тяжёлую ide запускать неохота. Если получится, это будет первым подобным плагином.


        1. Dmitry_zm Автор
          14.08.2025 09:41

          Такой плагин не планировали.


  1. nbkgroup
    14.08.2025 09:41

    То есть это форк Contiunue, но без поддержки ollama?


    1. Spyman
      14.08.2025 09:41

      Скам получается какой-то)

      Хотя и continue настолько кривой (для intelij idea), что сам - Скам)


      1. Dmitry_zm Автор
        14.08.2025 09:41

        Ну Cursor тоже форк VSCode)


        1. Spyman
          14.08.2025 09:41

          Вы выше уже ответили что локальные модели можно подключить (хоть и там через конфиги а не из ui, но оно и у contine через жопу, все по Эскобару), так что моя претензия что проект Скам полностью снимается))

          Просто если бы оно действительно было "взять opensource проект, вырезать из него возможность пользоваться своими моделями, вставить проприетарные модели и продавать доступ" - это прямо плохо)


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Да, это форк Continue. MIstral, кстати, тоже форкнулись с Continue и сделали свое решение.


  1. germn
    14.08.2025 09:41

    Для меня пока что главный затык — не ВПН, русский язык или платность, а качество модели. В копайлоте есть и GPT, и Sonnet. Даже в бесплатном. А у вас что?


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Недавняя GLM 4.5 например сильна и особо не уступает Sonnet 4 а на некоторых бенчах репортят, что даже лучше. Попробуйте эту модель.

      Тут можно почитать про GLM 4.5 https://z.ai/blog/glm-4.5


  1. dyadyaSerezha
    14.08.2025 09:41

    моделями от Koda — они тоже показывают отличные результаты

    А есть какие-то сравнительные данные, насколько "тоже"?


    1. Dmitry_zm Автор
      14.08.2025 09:41

      В наших моделях мы используем топовые опенсорс модели и дообучаем их. Будем рассказывать позже в новых статьях про Koda. Но в целом мы еще в пути к получению наших лучших моделей))


      1. dyadyaSerezha
        14.08.2025 09:41

        Да, на z.ai очень впечатляющие результаты сравнений. Тогда вопрос - сколько стоит железо для обучения и какое оно (без деталей)? Вроде как все это должно стоить кучу бабок. Где деньги, Зин?)


  1. gkaliostro8
    14.08.2025 09:41

    Сейчас "Авторизуйтесь через GitHub не проходит, т.к. даже через впн GitHub выдает, что в вашей стране ограничения


    1. Dmitry_zm Автор
      14.08.2025 09:41

      А напишите в сообщество Koda со скринами. Не понял почему не проходит авторизация через gitHub. Должно работать.


    1. RexcodingAI
      14.08.2025 09:41

      Очень странно. У меня VS Code авторизуется через GitHub без проблем. Правда, GitHub Copilot все равно не хочет работать. Но оно мне уже не надо.


  1. kibiman
    14.08.2025 09:41

    А подключиться к llama.cpp запущенном как сервер на http://127.0.0.1:8081/v1

    Ну или к серверу с llama.cpp можно ?


    1. Dmitry_zm Автор
      14.08.2025 09:41


      1. kibiman
        14.08.2025 09:41

        О, отлично, спасибо! =)


      1. RexcodingAI
        14.08.2025 09:41

        Когда Cline стал полностью платным, я попробовал подключить к нему Mistral на сервере LM Studio. Результат поразил! Cline каким-то макаром открыл контекстное окно в 131000 токенов и моя видеокарта встала на взлетную полосу:)) В самом LM Studio модель работает прекрасно.


  1. QweLoremIpsum
    14.08.2025 09:41

    А как mcp настраивать? Я что то не нашел это в документации


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Возможность добавить MCP будет в следующей версии. Пока такой возможности нету.


  1. Axelaredz
    14.08.2025 09:41

    А максимальная длина контекста больше 1,048,576 tokens ?)


    1. Dmitry_zm Автор
      14.08.2025 09:41

      В зависимости от модели. KodaAgent 130k контекст сейчас.


  1. Dharmendra
    14.08.2025 09:41

    поигрался с разными опенсорц моделями и вашими "собственными". Ну, мягко говоря, это не работает. Вообще. По сравнению с любыми даже cli агентами - это блокер. Как не было нормального RAG/func/tool calling, так и нету у всех этих опенсорсных форков "агентов". Нет каскадного планирования и выполнения плана шагов и самое главное - нет нормального применения патчей, модели чтото выдают, одному б-гу известное и каждый раз разное - явно парсер function не может делать различие между форматом данных у каждой модели - сработало - ништяк, не сработало - ну и ладно. То ошметки кода (руками вписывать?), то какие-то советы вместо патчей.

    Кароче - в утиль. Не похож совсем на Cursor и даже не примитивненький Copilot, ни тем более на claude/gemini/codex cli... ничего.

    Взяли опенсорсный кривой continue, не приходя в сознание и наточили его на свой ДЦ где развернули серверы с GPU. И все это ужасно тормозит - мощностей ДЦ явно маловато.

    А свое-то что сделали? Сколько своего кода написано дополнительно к "импортозаместительному" переклеиванию названий? Ну хочется верить, что все же когда-нибудь сделают.

    Но, пока это даже не пре-альфа - или фальшстарт маркет олухов, или все как обычно, ну вы поняли...

    Проекту и команде искренне желаю удачи все же однажды сделать агента и облако не хуже Cursor'a! Пусть у вас все получится.


    1. Dmitry_zm Автор
      14.08.2025 09:41

      Спасибо за мнение!

      А можете сюда или чат сообщества ваших кейсов накидать, где отработало плохо или ошибки, которые встретили? Чтобы предметно понять, что улучшить.


    1. Axelaredz
      14.08.2025 09:41


      Попробуй https://chat.qwen.ai сверху модель сменить на Qwen3 Coder.
      Войти через гугл.

      Он меня очень удивил. Почти не допускает ошибок, за исключением случаев, когда человек путает свои желания и логику.

      Так например собрал с помощью него мощного бота для телеграм.