Заголовок звучит как что-то из разряда «хакерских трюков», но на деле это официальный релиз.

3 мая 2026 года (в мой день рождения) разработчики Ollama опубликовали версию 0.23 — и главным событием стала прямая интеграция с десктопным приложением Claude. 

ГигаЧат увидел новость вот так )) ЗЫ Создано нейросетью.
ГигаЧат увидел новость вот так )) ЗЫ Создано нейросетью.

Разбираемся, что изменилось и почему это упрощает жизнь тем, кто работает с локальными моделями.

В чём соль

Claude Desktop — это настольное приложение от Anthropic. Внутри него живут Claude Cowork (для совместной работы) и Claude Code (терминальный интерфейс для разработки).

До версии 0.23 подключить к этому хозяйству локальные модели Ollama было можно. Но с оговорками. Требовалось включить режим разработчика в настройках Клода, поставить HTTPS-прокси (например, Caddy), потому что десктопное приложение принимало только защищённые соединения, и прописать эндпоинты в конфигурационном файле. 

С выходом 0.23 всё это ушло в прошлое. Открываем терминал и пишем:

ollama launch claude-desktop

Команда сама поднимет нужное окружение и запустит Claude Desktop с поддержкой Cowork и Code. 

Терминальная версия Code никуда не делась — её по-прежнему можно запустить через ollama launch claude. Выбор между десктопным и консольным интерфейсом остаётся за пользователем. 

Что ещё привезли в релизе

Помимо интеграции с Клодом, разработчики переработали систему отображения моделей. Раньше список рекомендованных моделей был частью сборки и обновлялся только вместе с приложением. Теперь он динамически подгружается с сервера — новые модели могут появляться в интерфейсе без необходимости качать обновление. 

Из технических исправлений: на Windows починили досадный баг с таймаутом OpenClaw (проблема решена принудительным использованием IPv4). Также укрепили работу с Metal на macOS — сбои при компиляции ядер GPU больше не приводят к падению всего сервиса. 

Что пока недоступно

В официальном changelog указано, что Web Search и расширения в рамках интеграции с Claude Desktop пока не поддерживаются. Обещано «coming soon» — ждём в следующих релизах. 

Сценарий использования, о котором говорят

Один из сценариев, который обсуждают в технических блогах: использовать Claude Desktop (Anthropic) для стратегических задач — планирования, архитектуры, ревью сложных багов, а Claude Code через Ollama — для «черновой» работы: линтинга, пакетной обработки файлов, рефакторинга. 

Идея в том, что «тяжёлые» операции, которые быстро съедают квоту на облачном аккаунте, перекладываются на локальную модель или недорогой API. Это экономит ресурсы и оставляет чувствительный код на своей машине.

Для тех, кто переживает о сохранности данных

Запуск через ollama launch claude-desktop означает, что все вычисления происходят на вашем оборудовании. Никакой код не отправляется в облачные сервисы без вашего ведома.  Особенно это актуально для небольших команд и индивидуальных разработчиков, которые работают с проприетарным кодом.

Как откатить изменения

Если новый режим по какой-то причине не подошёл, возврат к исходным настройкам — одна команда:

ollama launch claude-desktop --restore

Флаг --yes избавит от дополнительного подтверждения. 

Стоит ли пробовать

Если вы уже пользуетесь Ollama для локального запуска моделей и у вас установлен Claude Desktop — однозначно да. Релиз 0.23 убирает лишние промежуточные звенья и делает связку «локальная модель — десктопный ИИ-ассистент» простой как никогда.

Скачивайте с официального репозитория на GitHub, обновляйтесь и тестируйте.

И делитесь впечатлениями — разработчики открыты к обратной связи через Discord и email.

Комментарии (7)


  1. Rezzet
    06.05.2026 06:33

    Конечно надо пробовать, но мне кажется что полагаться в работе и инструментах на некоторые "хаки" пусть и с официальных релизов - это так себе идея. Завтра Anthropic выпустит релиз где это запретит и что все будут делать? К тому же есть альтернатива ввиде OpenCode и других, может быть лучше тратить силы на допиливание открытых инструментов?


    1. sektor305 Автор
      06.05.2026 06:33

      всё меняется в этом мире бренном, а уж в цифровом мире. Я лично уже не успеваю за новостями, если честно. Старый, что ли.. ))


  1. ceveru
    06.05.2026 06:33

    Казалось бы, причем тут хаб "Разработка игр". Ах да, для лучшего охвата...


    1. sektor305 Автор
      06.05.2026 06:33

      По-моему, разрабам игр в том числе это полезно.. я не "гуру", но ollama "пользую почти год на простом ноуте... И знакомый по мобильным "донпомойкам" часто прибегает к подобному.


      1. ceveru
        06.05.2026 06:33

        Это полезно знать так же, как и любой инструмент, которым потенциально могут пользоваться, вроде IDE или языка программирования. Речь о том, что тут в новости нет ничего, что касалось бы разработки игр.


  1. Incognito4pda
    06.05.2026 06:33

    А они что нибудь сделали с тем, что у них генерация на локальных моделях чуть ли не в два раза ниже чем в аналогичных продуктах? Или до сих пор так и занимаются монетизацией чтобы затащить побольше народу в своё облако с довольно странными лимитами на платных тарифах?


    1. sektor305 Автор
      06.05.2026 06:33

      По скорости — да, отставание системное, но есть подвижки

      В марте 2026 года вышло сравнение движков «The Great LLM Inference Engine Showdown» . Вот такие цифры "нарыл":

      • vLLM, SGLang на A100/H100 — 1000–2000 токенов/с.

      • TensorRT-LLM — 2500–4000+ токенов/с.

      • Ollama — характеристика «низкая», вердикт «не продакшен-решение для сервинга». Чисто так, для справки: "Ollama нельзя ставить за балансировщик нагрузки и использовать как боевой API-эндпоинт для множества одновременных пользователей."

      Причина архитектурная: Ollama — надстройка над llama.cpp, заточенная под простоту локального запуска, а не под максимальную утилизацию GPU.

      Но работу над скоростью не забросили. В патче v0.23.1 добавили поддержку Gemma 4 MTP — multi-token prediction, один из вариантов спекулятивной расшифровки. Разработчики заявляют более чем двукратный прирост скорости для Gemma 4 31B на Mac, особенно на кодовых задачах . Пока точечно, не системно, но направление задано.

      По монетизации — локальная версия никуда не делась...

      Ollama Cloud действительно существует с апреля 2026.
      Тарифы, про которые я уже где-то писал, не совсем "драконовские":

      • Free — с жёсткими дневными квотами, чисто попробовать.

      • Pro (~$20/мес) — инди-разработка и прототипы, лимиты расширены, но фиксированы.

      • Pro Max (~$200/мес) — продакшен-квоты, приоритетный доступ.

      Лимиты уже меняли дважды с выхода из беты, и обозреватели отмечают: «ограничения важнее заявленной цены» .
      Квоты плавающие — тут ты прав.

      Но локальный Ollama бесплатен и полностью автономен. Модели крутятся на твоём железе, никаких подписок, никакой телеметрии в облако. Это не фримиум-ловушка — это два разных продукта под одним брендом.

      Подведу черту:

      Скорость инференса на высоконагруженных сценариях — больное место, признаю. Но точечные оптимизации идут. Облако с меняющимися лимитами — факт, но локальный движок никто не сворачивает.