Заголовок звучит как что-то из разряда «хакерских трюков», но на деле это официальный релиз.
3 мая 2026 года (в мой день рождения) разработчики Ollama опубликовали версию 0.23 — и главным событием стала прямая интеграция с десктопным приложением Claude.

Разбираемся, что изменилось и почему это упрощает жизнь тем, кто работает с локальными моделями.
В чём соль
Claude Desktop — это настольное приложение от Anthropic. Внутри него живут Claude Cowork (для совместной работы) и Claude Code (терминальный интерфейс для разработки).
До версии 0.23 подключить к этому хозяйству локальные модели Ollama было можно. Но с оговорками. Требовалось включить режим разработчика в настройках Клода, поставить HTTPS-прокси (например, Caddy), потому что десктопное приложение принимало только защищённые соединения, и прописать эндпоинты в конфигурационном файле.
С выходом 0.23 всё это ушло в прошлое. Открываем терминал и пишем:
ollama launch claude-desktop
Команда сама поднимет нужное окружение и запустит Claude Desktop с поддержкой Cowork и Code.
Терминальная версия Code никуда не делась — её по-прежнему можно запустить через ollama launch claude. Выбор между десктопным и консольным интерфейсом остаётся за пользователем.
Что ещё привезли в релизе
Помимо интеграции с Клодом, разработчики переработали систему отображения моделей. Раньше список рекомендованных моделей был частью сборки и обновлялся только вместе с приложением. Теперь он динамически подгружается с сервера — новые модели могут появляться в интерфейсе без необходимости качать обновление.
Из технических исправлений: на Windows починили досадный баг с таймаутом OpenClaw (проблема решена принудительным использованием IPv4). Также укрепили работу с Metal на macOS — сбои при компиляции ядер GPU больше не приводят к падению всего сервиса.
Что пока недоступно
В официальном changelog указано, что Web Search и расширения в рамках интеграции с Claude Desktop пока не поддерживаются. Обещано «coming soon» — ждём в следующих релизах.
Сценарий использования, о котором говорят
Один из сценариев, который обсуждают в технических блогах: использовать Claude Desktop (Anthropic) для стратегических задач — планирования, архитектуры, ревью сложных багов, а Claude Code через Ollama — для «черновой» работы: линтинга, пакетной обработки файлов, рефакторинга.
Идея в том, что «тяжёлые» операции, которые быстро съедают квоту на облачном аккаунте, перекладываются на локальную модель или недорогой API. Это экономит ресурсы и оставляет чувствительный код на своей машине.
Для тех, кто переживает о сохранности данных
Запуск через ollama launch claude-desktop означает, что все вычисления происходят на вашем оборудовании. Никакой код не отправляется в облачные сервисы без вашего ведома. Особенно это актуально для небольших команд и индивидуальных разработчиков, которые работают с проприетарным кодом.
Как откатить изменения
Если новый режим по какой-то причине не подошёл, возврат к исходным настройкам — одна команда:
ollama launch claude-desktop --restore
Флаг --yes избавит от дополнительного подтверждения.
Стоит ли пробовать
Если вы уже пользуетесь Ollama для локального запуска моделей и у вас установлен Claude Desktop — однозначно да. Релиз 0.23 убирает лишние промежуточные звенья и делает связку «локальная модель — десктопный ИИ-ассистент» простой как никогда.
Скачивайте с официального репозитория на GitHub, обновляйтесь и тестируйте.
И делитесь впечатлениями — разработчики открыты к обратной связи через Discord и email.
Комментарии (7)

ceveru
06.05.2026 06:33Казалось бы, причем тут хаб "Разработка игр". Ах да, для лучшего охвата...

sektor305 Автор
06.05.2026 06:33По-моему, разрабам игр в том числе это полезно.. я не "гуру", но ollama "пользую почти год на простом ноуте... И знакомый по мобильным "донпомойкам" часто прибегает к подобному.

ceveru
06.05.2026 06:33Это полезно знать так же, как и любой инструмент, которым потенциально могут пользоваться, вроде IDE или языка программирования. Речь о том, что тут в новости нет ничего, что касалось бы разработки игр.

Incognito4pda
06.05.2026 06:33А они что нибудь сделали с тем, что у них генерация на локальных моделях чуть ли не в два раза ниже чем в аналогичных продуктах? Или до сих пор так и занимаются монетизацией чтобы затащить побольше народу в своё облако с довольно странными лимитами на платных тарифах?

sektor305 Автор
06.05.2026 06:33По скорости — да, отставание системное, но есть подвижки
В марте 2026 года вышло сравнение движков «The Great LLM Inference Engine Showdown» . Вот такие цифры "нарыл":
vLLM, SGLang на A100/H100 — 1000–2000 токенов/с.
TensorRT-LLM — 2500–4000+ токенов/с.
Ollama — характеристика «низкая», вердикт «не продакшен-решение для сервинга». Чисто так, для справки: "Ollama нельзя ставить за балансировщик нагрузки и использовать как боевой API-эндпоинт для множества одновременных пользователей."
Причина архитектурная: Ollama — надстройка над llama.cpp, заточенная под простоту локального запуска, а не под максимальную утилизацию GPU.
Но работу над скоростью не забросили. В патче v0.23.1 добавили поддержку Gemma 4 MTP — multi-token prediction, один из вариантов спекулятивной расшифровки. Разработчики заявляют более чем двукратный прирост скорости для Gemma 4 31B на Mac, особенно на кодовых задачах . Пока точечно, не системно, но направление задано.
По монетизации — локальная версия никуда не делась...
Ollama Cloud действительно существует с апреля 2026.
Тарифы, про которые я уже где-то писал, не совсем "драконовские":Free — с жёсткими дневными квотами, чисто попробовать.
Pro (~$20/мес) — инди-разработка и прототипы, лимиты расширены, но фиксированы.
Pro Max (~$200/мес) — продакшен-квоты, приоритетный доступ.
Лимиты уже меняли дважды с выхода из беты, и обозреватели отмечают: «ограничения важнее заявленной цены» .
Квоты плавающие — тут ты прав.Но локальный Ollama бесплатен и полностью автономен. Модели крутятся на твоём железе, никаких подписок, никакой телеметрии в облако. Это не фримиум-ловушка — это два разных продукта под одним брендом.
Подведу черту:
Скорость инференса на высоконагруженных сценариях — больное место, признаю. Но точечные оптимизации идут. Облако с меняющимися лимитами — факт, но локальный движок никто не сворачивает.
Rezzet
Конечно надо пробовать, но мне кажется что полагаться в работе и инструментах на некоторые "хаки" пусть и с официальных релизов - это так себе идея. Завтра Anthropic выпустит релиз где это запретит и что все будут делать? К тому же есть альтернатива ввиде OpenCode и других, может быть лучше тратить силы на допиливание открытых инструментов?
sektor305 Автор
всё меняется в этом мире бренном, а уж в цифровом мире. Я лично уже не успеваю за новостями, если честно. Старый, что ли.. ))