
Однажды я поставил перед собой цель: найти идеальный агрегатор — «сборник» нейросетей. Программу для Windows 11. Тот, который станет единым окном в мир ИИ. Потому что это удобнее, чем переключаться между десятком вкладок.
Итак, я протестировал девять различных программ для Windows, Linux и macOS — от многофункциональных монстров до простых утилит (а у некоторых есть версии для Android и iOS). Это был путь проб, ошибок и неожиданных открытий. Изучив ландшафт решений, я выбрал самые полезные и стабильные.
В этом обзоре мы рассмотрим программы (и один веб-сервис):
Msty
ChatBox
Tome
ChatMCP
Kaas
Cherry Studio
LibreChat
Open WebUI
BotHub
Вы узнаете, где можно параллельно общаться с 10+ моделями бок о бок, как сжимать длинные диалоги, какие клиенты позволяют создавать персональных ассистентов с базами знаний на основе ваших файлов, кто поддерживает больше всего форматов файлов и многое другое (сравнительная таблица в конце обзора).
Откройте для себя инструменты, которые превратят работу с нейросетями из хаотичного переключения между вкладками в продуманный и эффективный процесс!
Важная информация: чтобы эти программы заработали, их нужно подключить к источнику моделей — API. Поскольку многие зарубежные провайдеры недоступны у нас напрямую, я в качестве такой точки доступа буду использовать сервис BotHub. Он не требует ежемесячной подписки и стабильно работает без VPN. Это просто самый удобный для меня вариант, и, полагаю, для многих читателей тоже. (Кстати, если решите повторить, регистрируйтесь по этой ссылке — получите бонусные 100 000 капсов на счёт.) Что ж, давайте наконец посмотрим, что умеют эти агрегаторы!
Статья получилась очень объёмной... Сначала мне хотелось разделить её на части, но потом подумал, что так будет не очень удобно сравнивать.
Да, если вы очень торопитесь, то сразу переходите к Msty, Cherry Studio, BotHub (а если есть время настраивать сервер — к Open WebUI). Остальные сервисы в этом обзоре — скорее для сравнения.
Msty

Msty Studio, он же Msty, — это не просто комбайн для работы с нейросетями. Это скорее цифровой швейцарский нож, который угадывает ваши желания ещё до того, как вы сами осознаете, чего хотите от ИИ. Серьёзно — пользователи часто отмечают, что Msty «закрывает все потребности» при работе с чат‑ботами.

Благодаря всему этому, Msty по праву считается одним из самых универсальных и удобных агрегаторов на рынке. И это не просто громкие слова — он действительно даёт ощущение, будто работаешь не с приложением, а с продуманным напарником.
? Как установить
Скачайте установщик на официальном сайте. Дополнительные инструкции по установке можно найти здесь.
⚙️ Как подключиться и что настроить
Открыть текст
Русского языка в Msty, увы, нет (да, всё по‑английски, зато можно прокачать словарный запас!).
1. Перейдите в Model hub.

2. Нажмите Configure cloud providers.
3. Укажите параметры:
Models provider: Open AI‑compatible.
API key: введите свой ключ‑пароль.
Inference endpoint:
https://bothub.chat/api/v2/openai/v1
.В нижнем поле, Give it a unique name (optional), введите имя провайдера в любой форме.
4. После ввода отобразится список доступных моделей. Чтобы добавить все сразу — просто поставьте верхнюю галочку.

5. Нажмите Save.

(Если будете подключать дополнительных провайдеров, интерфейс слегка изменится — но логика остаётся прежней.)
6. В Msty скрыто много полезных фишек. Например, в Prompts library (второй значок снизу) можно создать шаблоны промптов — готовые фразы, которые удобно вставлять через ☰ → Prompts library. Это как макросы, только круче.
7. Самые важные настройки (раздел Settings):
General → Mode → Normal mode/Focus mode/Zen:
— первый режим показывает все элементы интерфейса;
— второй оставляет только нужное;
— а Zen — это режим для тех, кто хочет абсолютного фокуса (только диалог и поле ввода — никакого визуального шума).

General → Rendering modules. Обязательно включите:
— Mermaid diagrams (чтобы диаграммы отображались красиво, а не в виде кода),
— Math LaTeX (для формул),
— и, при желании, Enable links (чтобы ссылки от чат-бота были кликабельными).
8. Вернитесь в основное окно программы. В списке моделей можно закрепить любимые модели кнопкой ? Pin <…>. А ещё можно выбрать модель по умолчанию — например, gpt-5, — нажав ☆ Set <…> as default.

? Как пользоваться Msty
Проще простого: выбираете модель, пишете сообщение, при желании прикрепляете файлы и жмёте ⏎ Send. Ответы загружаются в потоковом режиме — прямо на глазах, а интерфейс настолько интуитивен, что объяснения почти не нужны. (Хотя да, я всё‑таки объясню — на всякий случай!)
Сплит-чаты
Одна из уникальных фишек Msty — сплит‑чаты: можно отобразить на экране сразу несколько диалогов, причем некоторые — или все — запараллелить, отправляя синхронно один и тот же промпт. Модели в окнах‑сплитах тоже могут быть одинаковыми или разными.
Кстати, выяснил, что одновременно сплитов может быть много, но в широкоформатный экран влезает до 10 одновременно. Остальные не теряются, но будут видны лишь тогда, когда уберешь часть (через ⋮ → Remove split).

Исключение файла из контекста
Крутые функции Msty можно перечислять бесконечно. Представим ситуацию: ранее в диалоге вы отправили в чат документ для суммаризации. И вот суммаризация уже готова и имеется в ответе... Оригинальный документ уже не так и нужен, не так ли? Как теперь исключить его из контекста, если не хочется совсем удалять?
Тут и выручает функция исключения файла из контекста. Просто кликаете по эскизу — и всё, файл временно «уходит в тень». Индикатор‑галочка в правом нижнем углу исчезает, показывая, что документ не участвует в текущем запросе. При желании можно включить его обратно.

? Возможности форматирования
Скриншот

Отзыв с официального сайта как нельзя лучше описывает это приложение:
Msty убирает все вопросы о том, какое приложение выбрать. Он делает всё, что мне нужно. Локальные LLM, интеграция с Ollama, RAG, поиск данных по принципу Perplexity, библиотека промптов — всё на месте, и интерфейс при этом простой и удобный.
Впрочем, то же можно отнести и к другим сегодняшним сервисам. Идём дальше!
ChatBox
? https://chatboxai.app
? https://github.com/chatboxai

ChatBox — опенсорсный десктопный клиент для чат‑ботов. Помимо настольной версии, есть и мобильное приложение для Android и iOS, обеспечивая единый опыт на всех устройствах. Удобно — всё работает одинаково, где бы вы ни были.
ChatBox не выдаёт суперплюшек, но и не имеет явных минусов: скорее средний вариант. В сравнении с другими агрегаторами он просто надёжен и понятен в использовании. Хотя некоторые жалуются, что интерфейс малость захламлён.

? Как установить
Для Windows, Linux, macOS скачайте и запустите установщик.
У Android‑версии способа два: Google Play или напрямую через .apk‑файл.
iOS — в App Store.
⚙️ Как подключиться и что настроить
Открыть текст
Сначала — немного приятных новостей: ChatBox умеет работать на русском. Чтобы включить язык интерфейса, откройте Настройки → Общие настройки → Язык и выберите Russian.
Теперь перейдём к подключению API.
1. Заходим в Настройки → Поставщик модели и жмем Добавить.

2. Вводим название провайдера, любое, по которому вам будет удобно его узнавать. Жмем Добавить.
3. В списке Режим API доступен только один вариант (и это упрощает жизнь). Остальные поля заполняются привычным образом: API‑ключ и Хост API (https://bothub.chat/api/v2/openai/v1
).
4. Жмём Получить, и ChatBox отображает список доступных моделей.

Вот тут ChatBox немного капризен. Добавить все модели одним махом нельзя — придётся вручную нажимать на значок «плюс» возле каждой, чтобы добавить её в общий список. Да, немного утомительно… особенно если моделей несколько сотен.

5. С отправкой изображений тоже есть тонкость: просто прикрепить картинку не выйдет — нужно предварительно активировать эту способность для конкретной модели. Для этого нужно заходить в ее настройки (значком ⚙️) и включать для нее возможность Видение (в оригинале Vision).

Если этого не сделать, ChatBox просто не даст прикрепить изображение. И к сожалению, читерского обходного пути нет. Поэтому если часто работаете с визуальными материалами — стоит задуматься о программе, где это включено по умолчанию (тот же Msty или Cherry Studio).
6. Ещё несколько полезных настроек:
Модели по умолчанию → Модель чата по умолчанию — выберите, например, gpt-5.
Модели по умолчанию → Модель именования тем по умолчанию. Здесь подойдёт лёгкая модель вроде gpt‑oss-20b или qwq-32b. Она будет придумывать названия диалогов (не будем мешать её творческому порыву).
Настройки чата → Максимальное количество сообщений в контексте. Поставьте Без ограничений, чтобы самому решать, когда обнулять историю.
Клавиатурный баг: в некоторых версиях Ctrl вызывает окно настроек — внезапно. Чтобы это отключить, перейдите в ⚙️ → Горячие клавиши и снимите сочетание для Открыть настройки.
И напоследок: закрепите любимые модели вверху списка, нажав ★, — экономит кучу времени.

? Как пользоваться ChatBox
ChatBox приятно удивляет — он показывает количество токенов ещё до отправки сообщения! Индикатор расположен в правом нижнем углу промпта — мелочь, но бесценная, когда нужно прикинуть, влезет ли длинный запрос в лимит.

Дальше всё по классике: выбираете модель, пишете промпт, нажимаете ⏎ — и ChatBox уже в работе.
Суммаризация диалога
Вот за что ChatBox реально можно похвалить — это за функцию сжатия диалога. Она превращает длинную переписку в аккуратное резюме, с которого можно начать новую тему. Такое есть только у ChatBox и LibreChat — и, если честно, функция нередко спасает от хаоса при долгих обсуждениях.
Сценарий знакомый: к концу затяжного разговора с ботом вы теряете нить рассуждений и думаете: «Эх, вот бы составить саммари, чтобы начать с чистого листа...», — ChatBox именно это и делает.
Пошагово:
Наведите курсор на индикатор токенов.
Нажмите Сжать разговор.


То, что нужно. Дальше остаётся нажать Подтвердить и немного подождать — ChatBox аккуратно упакует весь ваш диалог и создаст новую тему. Например, так:
Скриншот

Получившаяся тема (на скриншоте «# Инструкции») появится в том же диалоге, но с чистым контекстом — модель больше не помнит старую переписку. Визуально это удобно: вы видите историю, можете пролистать вверх, но для модели всё начинается заново.
Современные модели, конечно, уже тянут огромные контексты — допустим, ChatGPT 5 с 400 000 токенов или Gemini 2.5 Pro с 1 000 000. Но на всякий случай полезно знать, что такая функция есть.
Кстати, если хотите просто начать в том же диалоге новую тему без суммаризации, жмите Начать новую тему внизу окна. Аналог в BotHub — кнопка Сбросить контекст.
Работа с файлами
Здесь стоит помнить о паре ограничений (кто предупреждён — тот вооружён):
Формат .pdf в ChatBox не поддерживается. Зато .docx — без проблем.
Можно прикреплять несколько файлов разных форматов, но не более одного изображения за раз. Почему так?..
? Возможности форматирования
Скриншот

Tome
? https://github.com/runebookai/tome

Tome — экспериментальный десктоп‑клиент для LLM с фокусом на MCP (Model Context Protocol), описываемый как «волшебная книга заклинаний для LLM». На практике Tome выглядит как довольно‑таки примитивная программка, с интерфейсом из начала 2000-х. Но не будем судить строго — давайте разберёмся, что она умеет.

В общем, перед нами классический пример технического превью: идея интересная, но реализация пока сырая. Tome — скорее демонстрация концепции MCP, чем полноценный инструмент для повседневной работы. Хотя, кто знает, возможно, через пару версий всё изменится.
? Как установить
Скачайте установщик для нужной платформы (Windows, Linux, macOS) в разделе релизов на GitHub и запустите его.
⚙️ Как подключиться и что настроить
Открыть текст
Откройте настройки с помощью кнопки ⚙️.
В разделе Engines нажмите Add engine и укажите нужные параметры. Например, такие:
Name:
BotHub
.URL:
https://bothub.chat/api/v2/openai/v1
.API key: в нашем случае можно взять здесь.
Конечно, можно использовать и другие эндпойнты (например, OpenRouter), но многие из них заблокированы из России. Поэтому вариант с Bothub — проверенный и рабочий.
Остальные настройки в Tome касаются автоматизации, MCP‑интеграций и создания телеграм‑ботов — но это уже темы для отдельного глубокого гайда.
? Как пользоваться Tome
Tome — минималистичный клиент, где всё на виду: список моделей, поле для промпта и пара регуляторов (длина контекста да и t°), спрятанных за кнопкой Advanced. Всё.

Впечатление от работы? Честно — не самое удобное. Интерфейс спартанский, кастомизация минимальная, и порой кажется, будто вы вернулись в эпоху Windows XP. Если вы ищете надёжный ежедневный клиент — это пока не он. Tome стоит рассматривать как лабораторный стенд для экспериментов, а не как замену привычных агрегаторов. Едем дальше!
? Возможности форматирования
Скриншот

ChatMCP
? https://github.com/daodao97/chatmcp

ChatMCP — лёгкий клиент, схожий с ChatBox (и да, за названием вновь скрывается всё тот же Model Context Protocol). Это открытый проект на Flutter, созданный для объединения разных MCP‑серверов и LLM‑эндпойнтов.
Когда впервые встречаешь это название, реально путаешься: MCP, MPC... (кажется, пора заводить шпаргалку для всех этих аббревиатур).
Если коротко, ChatMCP — не революция, а просто добротный инструмент с базовым набором функций: мультиплатформенный чат с менеджером MCP‑серверов.

? Как установить
В разделе релизов на GitHub можно скачать установщики для Windows, Linux, macOS, а также.apk‑файл для Android.
Для iOS установка производится через TestFlight — классика для бета‑тестов.
⚙️ Как подключиться и что настроить
Открыть текст
1. Перейдите в Settings → Providers.
2. Нажмите Add provider, введите любое удобное имя.
3. Укажите параметры:
API style: в нашем случае OpenAI.
API URL:
https://bothub.chat/api/v2/openai/v1
.API key: вписываем ключ доступа к API.

4. Нажмите Fetch, чтобы загрузить список моделей.
5. В разделе Gen title выберите модель, которая будет генерировать названия диалогов. Лучше выбрать лёгкую, типа qwq-32b или gpt‑oss-20b.

6. Под конец нажмите Save settings.
Совет: в General → System prompt стоит укоротить системный промпт, оставив лишь строчку «Use Mermaid to generate diagrams». Все остальные фразы там обычно лишние и не влияют на поведение модели.
? Как пользоваться ChatMCP
ChatMCP внешне выглядит как стандартный LLM‑клиент: в верхней части выбирается модель, ниже — поле для ввода и кнопка отправки.
Однако важный момент: поддержка файлов в ChatMCP очень ограниченна.
Можно прикреплять только изображения (и то по одному) и файлы исходного кода. Все остальные форматы — мимо. Поэтому лично я не рекомендую пользоваться ChatMCP, от слова «совсем».
Кнопка нового чата расположена в двух интересных местах: внизу списка диалогов и слева от кнопки сворачивания окна.

Если же возникнет желание покопаться в параметрах модели — t°, top‑P, max tokens, frequency penalty, presence penalty, — всё это находится в меню ⋮ → Model config.
? Возможности форматирования
Скриншот

Kaas
? https://github.com/0xfrankz/Kaas

Kaas — приложение на базе Tauri + React, ядро на Rust, поэтому оно быстрое и лёгковесное.
Отзывчивый и минималистичный интерфейс как бы обещает нам беспроблемное подключение и общение с ИИ‑моделями. Но по факту Kaas выглядит на фоне конкурентов наименее выгодно: программа часто глючит и подвисает.
Для понимания, буквально на каждом втором промпте, содержащем что‑то «необычное», программа уходит в бесконечную генерацию, оставляя нас, пользователей, лицезреть прекрасный «хипстерский» желто‑белый интерфейс. Вы отправляете запрос с прикреплённым файлом — и всё, сцена замерла. Каас задумывается. Бесконечно. Даже простое форматирование текста может стать причиной зависания.
Иконка приложения в виде ломтика сыра на всём этом фоне выглядит особенно издевательски...

? Как установить
Скачайте и запустите нужный установщик для вашей платформы (Windows, Linux, macOS) в разделе релизов на GitHub.
⚙️ Как подключиться и что настроить
Открыть текст
Приложение Kaas предлагает максимально неудобный способ подключения и добавления моделей.
1. Откройте раздел Models и нажмите Create new model.

2. Выберите Custom.
3. Введите данные:
Alias: отображаемое имя модели, например «gpt-5» или «ChatGPT 5».
API key: API‑ключ (такой, как здесь).
Endpoint:
https://bothub.chat/api/v2/openai/v1
.Model: внутреннее имя модели, напр.
gpt-5
.

4. И... так для каждой. А ещё нужно вручную смотреть список моделей. Таким образом нужно будет добавить их все. (Но зачем? Лучше просто переключиться на другую программу.)
? Как пользоваться Kaas
Начать диалог можно тремя способами:
Ввести запрос в поле Ask anything…, выбрать модель и нажать Enter (или ⌲).
Нажать + или Start new conversation, выбрать в окне и подтвердить нажатием Use this model.

Главный «фокус» Kaas, опять же, — вечная генерация ответа. Сообщение может зависнуть на любом этапе: если диалог неновый, если есть вложение, если включена потоковая передача или просто присутствует сложное форматирование. Настоящая лотерея!
Почему это происходит, сказать сложно — разгадка скрыта в исходниках. Но итог очевиден: пользоваться Kaas в текущем виде практически невозможно. Так что, как говорится, «спасибо за попытку», и идём дальше.
Cherry Studio
? https://www.cherry‑ai.com
? https://github.com/CherryHQ/cherry‑studio

Cherry Studio — универсальный клиент на все случаи жизни, напоминающий Msty и Open WebUI, тоже один из самых функциональных в нашем списке.
Левая панель программы приятно удивляет: помимо привычных диалогов (или, как их тут называют, топиков), в ней есть раздел ассистентов. Ассистент, по сути, является комбинацией нескольких штук:
системный промпт с правилами общения;
параметры модели — от температуры (t°) и top‑P до длины контекста;
база знаний RAG (да‑да, та самая, которая превращает ваши .pdf‑ и .docx‑файлы в личную википедию);
набор быстрых фраз и прочие удобства.

Звучит интригующе? Ещё бы. Можно создать десяток баз знаний прямо из собственных документов и потом буквально «спрашивать свои файлы». Переключение между ассистентами — в пару кликов, и вы будто перелистываете страницы умной записной книжки.
Cherry Studio поражает количеством функций: иногда кажется, будто открываешь научно‑фантастическую версию Notion с встроенным ИИ, где каждая кнопка что‑то да умеет.

Cherry Studio позволяет буквально настроить всё под себя — от внешнего вида до поведения модели. Благодаря такому уровню персонализации и стабильной работе, Cherry Studio уже заслужил репутацию одного из самых надёжных и функциональных агрегаторов на рынке.
? Как установить
Скачайте и установщик (Windows, Linux, macOS) на официальном сайте.
⚙️ Как подключиться и что настроить
Открыть текст
Начнём с приятного — Cherry Studio умеет работать на русском. Чтобы переключить язык интерфейса, откройте ⚙️ → General settings → Language и выберите Русский.
Теперь подключим API:
1. Перейдите в Провайдеры моделей и нажмите Добавить.
2. Введите любое имя провайдера и выберите тип — OpenAI‑Response.

3. Укажите Ключ API и Хост API.
Важно: для нашего случая в конце адреса обязательно добавьте прямой слеш (/), иначе не заведется: https://bothub.chat/api/v2/openai/v1/
.
4. В разделе Модели нажмите Редактировать, чтобы загрузить список доступных моделей.

5. Теперь можно:
Добавлять модели по одной (значок + возле каждой модели);
Добавлять по группам;
Или если не хотите возиться, нажать кнопку Добавить в список в правом верхнем углу — и Cherry Studio загрузит все модели сразу. Повторное нажатие удалит их обратно.

После этого подключение готово.
Настроим список моделей:
В разделе Модель по умолчанию → Модель ассистента по умолчанию стоит выбрать, например, gpt-5 — тогда она будет автоматически активироваться при создании нового диалога.
Вернемся к основному экрану программы. Здесь можно раскрыть список и закрепить приоритетные модели вверху с помощью кнопок ?.

Дополняем системный промпт
Чтобы модель знала, что Cherry Studio умеет строить диаграммы, стоит добавить об этом информацию в системный промпт.
1. Выберите ассистента, щёлкните по нему правой кнопкой → Редактировать ассистента.

2. Нажмите Редактировать и вставьте в промпт:
Это приложение может визуализировать диаграммы и схемы трех видов: Mermaid, PlantUML, Graphviz. Поэтому ты можешь встраивать в диалог код диаграмм и схем.
После этого сохраните изменения — и Cherry Studio будет корректно понимать ваши запросы с визуализациями.
Важное уточнение
Как оказалось, Cherry Studio не поддерживает все новшества Mermaid, поэтому при запросе сложных Mermaid‑диаграм могут возникнуть ошибки. Вот пример обновлённого системного промпта (по совету ChatGPT 5), который помогает избежать проблем:
Системный промпт для Cherry Studio
Это приложение может визуализировать диаграммы и схемы трех видов: Mermaid, PlantUML, Graphviz. Поэтому ты можешь встраивать в диалог код диаграмм и схем.
В случае Mermaid схемы должны быть строго совместимы со старыми рендерами (Mermaid v8/v9):
• Только
flowchart TB
илиLR
.• Одна инструкция на строку. Никаких двух узлов подряд на одной строке без соединителя.
• Допустимые стрелки:
-->
и---
(сплошные). Не использоватьo--
,x--
,-.->
и тому подобное• Метки на рёбрах — только через
|текст|
. Не использовать-.текст.->
.• Не использовать групповые связи вида
A & B --> C
. Дублируй связи явно:A --> C
иB --> C
.• Не использовать
classDef
,class
,:::
,style
,linkStyle
и директивыinit
.• Узлы: только простые формы
[Текст]
,(Текст)
,((Текст))
,{Текст}
. Без HTML/Markdown.• Идентификаторы узлов — только латиница/цифры/подчёркивание:
^[A-Za-z0-9_]+$
.• Подписи и тексты — ASCII и/или обычные буквы (в т. ч. кириллица), но без типографских дефисов/кавычек; дефис только
-
(U+002D).• Сабграфы объявлять как:
subgraph Title ... end
— безsubgraph id[Label]
.• Всегда закрывать
subgraph
паройend
.• Не использовать комментарии/директивы, кроме простых строк, или вовсе без комментариев.

Надеемся, что разработчики Cherry Studio скоро обновят Mermaid до актуальной версии. Но пока что этот небольшой пояснительный блок в системном промпте — надёжный способ избежать ошибок при визуализации.
? Как пользоваться Cherry Studio
Основная особенность — общение в некотором роде завязано на «ассистентах». По сути, это такие умные наборы, где собраны системный промпт, настройки модели, база знаний RAG и ещё пара технологических вкусностей — вроде MCP, «регулярных фраз» и даже глобальной памяти.
Благодаря этому, ассистенты превращаются в нечто вроде мини‑ИИ‑личностей, каждая со своим характером и специализацией. Один может помогать писать тексты, другой, скажем, консультировать по Python, третий — делать несколько вещей. Звучит удобно? Ещё бы!
Хотя, честно говоря, если не хочется вникать во все эти тонкости, можно просто выбрать дефолтного ассистента (Default assistant) — и не трогать его вовсе. Работать будет как часы.
Но если вы из тех, кто любит настраивать всё под себя, вот пара наблюдений:
-
В системе имеется библиотека заготовленных ассистентов, здесь их несколько десятков. Чтобы создать экземпляр такого библиотечного ассистента, нужно нажать + Добавить ассистента и выбрать из списка.
Важно: вы не переносите ассистента напрямую, а создаёте копию. Это значит, что можно клонировать прототип несколько раз и подправить каждый экземпляр под разные задачи — например, изменить t° или чуть переписать системный промпт под конкретный стиль общения. Ещё момент — диалоги (или, как их называет Cherry Studio, топики) жёстко привязаны к ассистентам. Выбрали ассистента в первой вкладке? Тогда во второй увидите только те диалоги, что были созданы именно им. Это помогает не запутаться, особенно если ассистентов у вас много.
Кстати, ассистент не связан с конкретной моделью — ее по‑прежнему можно переключать по ходу диалога.
Чтобы просто начать новый диалог в текущем ассистенте, нужно нажать + Новый топик.

Я, конечно, не удержался и попросил Cherry Studio (через ChatGPT 5) нарисовать несколько схем. Вот что получилось:
Схема Mermaid

(((ИЗОБРАЖЕНИЕ)))
Схема Graphviz

Схема PlantUML

Сгенерированную схему можно тут же скачать — в.png или.svg.
Запрос был такой:
Создай три очень сложных диаграммы/схемы на разных языках разметки.
Теперь хочется проверить, как Cherry поведёт себя, если прикрепить целую книгу в формате .pdf или .docx и попросить ИИ визуализировать связи между персонажами.
А теперь немного об интерфейсе. В Cherry Studio есть невероятно удобный фильтр моделей, прямо как в Sublime Text. Серьёзно, в новых программах я всегда первым делом проверяю: есть ли тут такой поиск. Ведь когда моделей десятки или сотни, пальцы сами благодарят за экономию времени.
Работает он по принципу fuzzy search — не нужно помнить точное название. Введите пару символов из разных частей, и программа догадается. Например:
gr 4
найдёт grok-4;cl net
(или дажеnet cl
) — найдет все версии claude‑sonnet.

? Возможности форматирования
Скриншот

LibreChat
? https://www.librechat.ai
? https://github.com/danny‑avila/LibreChat
? https://github.com/danny‑avila/rag_api

Теперь мы перескакиваем из мира привычных Windows‑приложений в браузерную вселенную — туда, где всё работает через локальный сервер. На скриншоте выше видно: LibreChat — это не сайт в интернете, а локальный клиент, который запускается в паре с сервером. Сам сервер при этом находится в отдельном приложении, запущенном через командную строку:

Причём сервер можно разместить где угодно — на своём компьютере, в локальной сети или даже в облаке. Так же и в Open WebUI. Но вернемся к программе.
LibreChat — активный опенсорс‑проект, платформа чатов, работающая по классической клиент‑серверной модели. Можно сказать, это такой «сам себе ChatGPT», только на вашем железе.
Правда, с LibreChat не всё так просто. Чтобы его запустить, вам понадобятся Node.js, MongoDB и руки, готовые редактировать конфигурационные файлы.yaml и.env. И даже после этого результат неидеален (вот почему Open WebUI выглядит куда привлекательнее). Некоторые пользователи честно признаются, что просто сдались в процессе установки.
По сравнению с Open WebUI, интерфейс LibreChat выглядит более спартански и менее интуитивен, что упоминают и многие тестировавшие пользователи.

? Как установить, настроить и пользоваться
Процесс установки подробно описан в этой статье, но если выбираете между LibreChat и чем‑то более стабильным — берите Open WebUI, не пожалеете. А если хочется углубиться, будет ещё материал о том, как прикрутить к LibreChat полноценные RAG‑функции.
? Возможности форматирования
Скриншот

Open WebUI
? https://openwebui.com
? https://github.com/open‑webui/open‑webui

Open WebUI — широко известный ИИ‑интерфейс с философией офлайн‑сервера. Да, как и LibreChat, он не устанавливается как простая программа, а работает по схеме: сервер + браузерная вкладка.
Open WebUI, наряду с теми же Cherry Studio и Msty, явный выбор для тех, кто готов копать в настройках ради максимальной гибкости. Когда вы освоитесь с программой, возможностей окажется навалом.
Из коробки Open WebUI отличается хитроумным способом отправки файлов: совсем как в LibreChat, прикрепленные документы здесь не отправляются на сервер в полном виде, а — как во всем нам известной сказке — из них берутся лишь релевантные файлы, из релевантных файлов выбираются релевантные фрагменты, но насколько — это уж как повезет.
В теории это экономит ресурсы. На практике… бывает, что нужный файл «теряется в переводе». К примеру, в одном из тестовых диалогов я сделал следующее:
В начале диалога прикрепил несколько файлов.
Несколькими сообщениями позже упомянул предыдущие файлы (попросил описать все по именам и содержимому), и Open WebUI попросту не увидел один или два из них.
А всё потому, что RAG‑модель сочла файл неактуальным для запроса.
Так что совет простой — сразу после установки отключите этот умный менеджмент файлов. Да, он экономит токены и память, но мешает, если вы хотите, скажем, сделать полноценную суммаризацию текста. Ведь как она получится, если модель читает только обрывки? (Чуть ниже расскажу, где именно выключить RAG‑режим.)

? Как установить и запустить
Открыть текст
Готовы немного поиграть с командной строкой? Отлично, тогда двигаемся шаг за шагом.
1. Установите программу uv, если еще не имеется. Это современный аналог pip и pipx, но гораздо удобнее и безопаснее. Он берёт на себя управление версиями Python (3.11/3.12/3.13...), виртуальными средами и зависимостями, избавляя от головной боли с конфликтами пакетов и несовместимыми версиями.
Почему uv лучше:

Чтобы установить uv в Windows, выполните следующую команду:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
А если вы работаете на Linux или macOS — вот официальный гайд.
2. Устанавливаем Open WebUI через Python 3.11 (именно его рекомендуют авторы проекта). Версия 3.12 в целом работает, но 3.13 — точно нет.
powershell -c "$env:DATA_DIR='C:\open-webui\data'; uvx --python 3.11 --with itsdangerous open-webui@latest serve"
Почему добавлен ключ
--with itsdangerous
? Это временный обход бага, описанного здесь. Вероятно, скоро всё поправят и ключ можно будет убрать. А пока пусть остаётся — вреда от него точно нет.
Вот что будет, если не добавить «--with itsdangerous»

3. Чтобы не копировать команду каждый раз, создайте ярлык (ПКМ → Создать → Ярлык), со следующей командой:
powershell -c "$env:DATA_DIR='C:\open-webui\data'; uvx --python 3.11 open-webui@latest serve"
Теперь Open WebUI можно запускать двойным кликом — красота.
4. Когда в консоли появится ASCII‑арт с надписью «OPEN WEBUI», значит, сервер успешно запущен.

5. Откройте браузер и вбейте адрес: http://localhost:8080. Вас встретит приветственный экран:

6. Нажимаем Get started. Тут будет регистрация. Вводим данные (плюс локального сервера в том, что никаких подтверждений через почту не требуется — можно впечатать все что угодно) и жмём Create admin account:

Первый зарегистрированный пользователь становится админом, а все последующие создаются как обычные и активируются через административную панель.
⚙️ Как подключиться и что настроить
Открыть текст
Важный момент: в Open WebUI два раздела настроек, и это легко может сбить с толку. Первый — просто Настройки, а второй — Панель администратора; в панели администратора находятся подразделы: Пользователи, Оценки, Функции и, опять же, отдельные Настройки. Именно в этих «вторых» Настройках прячется всё самое важное — например, ввод API‑адреса.
Включить русский язык можно, выбрав его в списке Settings → General → Language.
Итак, сперва давайте подключимся к API.
1. Перейдите в Панель администратора → Настройки → Подключения.

2. Нажмите + (Добавить соединение).

3. Укажите такие параметры:
Тип подключения: Внешнее;
URL:
https://bothub.chat/api/v2/openai/v1
;Вход: Bearer;
Рядом введите ключ‑пароль, берётся отсюда;
Тип поставщика: Open AI;
Нажмите Сохранить.

На этом этапе можно оставить список моделей пустым — тогда Open WebUI просто подгрузит все доступные.
4. Чтобы файлы передавались в полном виде, нужно отключить интеллектуальный менеджмент вложений. Для этого перейдите в Панель администратора → Настройки → Документы и поставьте галочку ☑️ Обход встраивания и извлечения данных.
5. В Панель администратора → Настройки → Модели можно спрятать ненужные модели. (Правда, разница между пунктом ⋯ → Скрыть модель и тумблером вкл/выкл остаётся загадкой.)
6. В разделах Настройки и Панель администратора → Настройки есть несколько любопытных функций:
Например, я бы отключил Настройки → Интерфейс → ⬛ Автоматическая генерация продолжения, чтобы не генерировался список из пяти фоллоу‑апов для продолжения диалога.
⬛ Временный чат по умолчанию — включает анонимный режим: новые диалоги будут временными по умолчанию (не понадобится каждый раз активировать кнопкой вручную).
☑️ Bubble‑UI‑чат — меняет отображение диалога:
— выключено — все сообщения слева,
— включено — ответы ИИ выравниваются справа (в стиле мессенджеров).
7. На оповещениях хотелось бы остановиться подробнее.
Прежде всего, их три вида:
Пока вы находитесь во вкладке Open WebUI, но в другом диалоге, прямо здесь отобразится всплывающее сообщение в углу.
Звуковое уведомление. Сработает, если вы переключились в другую вкладку или приложение. Можно отключить через Настройки → Интерфейс → ⬛ Звук уведомления.
Браузерные push‑оповещения. Включаются через Настройки → Поиск → ☑️ Уведомления. Эти сообщения появляются поверх рабочего стола, даже если браузер свёрнут.
Комбинируйте их как удобно — так вы точно не пропустите момент, когда ИИ закончит генерацию.
А если хотите, чтобы звук проигрывался всегда, даже когда вы внутри интерфейса, включите опцию: Настройки → Интерфейс → ☑️ Всегда проигрывать звук уведомления.
После всех изменений не забудьте нажать Сохранить — и ваши настройки вступят в силу.
? Как пользоваться Open WebUI
Чтобы работать комфортнее, начнём с мелочи, которая серьёзно экономит время: закрепите нужные модели на боковой панели. Так они всегда будут под рукой. Для этого отыщите интересующие в списке и нажмите возле них ⋯ → Оставить в боковой панели (кривоватый перевод, да).

Дополнительно можно закрепить модель и через браузерные закладки. Для этого откройте Панель администратора → Настройки → Модели, найдите нужную и скопируйте ссылку вида: http://localhost:8080/?model=<название_модели>. После этого просто перетащите её на панель закладок. При открытии такой ссылки автоматически создастся вкладка уже с выбранной моделью.
Сплит-чаты
Хотите сравнить, как разные модели отвечают на один и тот же запрос? Тогда вам сюда.
Чтобы создать сплит‑чат, нажмите кнопку + справа от списка моделей. Вот пример: я отправил одно сообщение сразу трём моделям — и получил три совершенно разных результата:

Это невероятно удобно, когда нужно сравнить стили, точность или поведение моделей — особенно при выборе, какая из них лучше подходит под конкретные задачи. Если моделей больше и они не помещаются по ширине, снизу появится горизонтальная полоса прокрутки — можно пролистать.
Если вы активно работаете со сплит‑чатами и при этом моделей больше 3, включите ☑️ Широкоэкранный режим в настройках, чтобы отображение по горизонтали не ограничивалось тремя моделями.
Open WebUI отлично справляется с обработкой документов. Можно прикреплять один или несколько файлов — даже разных форматов — и задавать по ним вопросы, просить анализ, суммаризацию или перекрёстные сравнения.
? Возможности форматирования
Скриншот

BotHub

BotHub — это веб‑платформа, где вы получаете доступ к сотням моделей сразу после регистрации. Достаточно указать почту — и можно работать. По сути, BotHub объединяет под одной крышей множество ИИ‑инструментов: от классических чат‑ботов до генераторов изображений, видео и речи.
Платформа служит единой точкой входа в мир разных моделей — без VPN, без сложных настроек, просто из браузера.

? Как установить
Просто зарегистрируйтесь по этой специальной ссылке (чтобы добавились бонусы). Это веб‑сайт, поэтому всё работает без установки.
⚙️ Как подключиться и что настроить
BotHub не требует ручной настройки API или дополнительных ключей. Все модели доступны из коробки. Помимо чат‑ботов, здесь есть и другие типы: генераторы изображений, видео и аудио, модели для перевода речи в текст и обратно.
? Как пользоваться BotHub
1. Откройте дашборд.
2. Раскройте список, чтобы выбрать модель — нужный ИИ можно найти по названию или типу задачи.

3. Чат‑боты находятся на вкладке Текст, а другие модели — во вкладках Изображение, Речь и Видео.
4. После выбора модели напишите промпт: это может быть текст любой длины, от нескольких символов до тысяч и десятков тысяч символов.
Например, gpt-5 имеет контекстную память длиною в 400 000 токенов (0,8...1,2 млн рус. символов/1,6 млн англ. символов), а claude‑sonnet-4.5 или gemini-2.5-pro — 1 000 000 токенов (2…3 млн рус. симв./4 млн англ. симв.).
5. Все модели позволяют прикреплять файлы кнопкой +:

Что можно загружать?
Чат‑ботам: текстовые файлы и таблицы (.pdf, .docx, .xlsx, .txt, .csv, .tsv и др.), изображения, исходный код.
Генераторам изображений (Midjourney, Flux, Dalle 3, Stable Diffusion) — исходную картинку для доработки.
Расшифровщикам речи (Assembly AI Best) — аудиофайлы (.mp3, .flac, .wav и др. — полный список отобразится в окне выбора файла).
Генераторам видео (Runway, Veo 3) — стартовое изображение, которое станет первым кадром ролика.
6. В правой части интерфейса находятся параметры модели. Для текстовых чат‑ботов можно оставить их по умолчанию, а вот для изображений и видео лучше заглянуть — там настраиваются стиль, разрешение и прочие параметры. Вот пример панели настроек для модели Midjourney:

7. После ввода промпта нажмите Enter или кнопку отправки. Чат‑бот начнёт отвечать уже в процессе генерации, а у размышляющих моделей будет виден сам процесс рассуждения.
? Возможности форматирования
Изображение

)
...Установить несколько?..
Можно ли поставить сразу несколько приложений из этого обзора?
Всё под контролем. Эти программы не конфликтуют ни с API, к которому подключаются, ни между собой — даже если речь идёт о серверных Open WebUI и LibreChat+rag_api. Так что можно не просто устанавливать, но и запускать их одновременно.
Хотите устроить парад интерфейсов и сравнить их между собой? Пожалуйста — Open WebUI в браузере, Msty, Cherry Studio и остальные на десктопе, BotHub в соседней вкладке. Всё отлично уживётся на одном устройстве.
Итоги: какую программу выбрать? Сравнительная таблица
Вот где начинается самое интересное. Если вы дочитали до этого места, значит, пришло время великого выбора. Какая же программа «та самая»? Разберёмся шаг за шагом.
Для начала вот сравнительная таблица полностью, а ниже — ее разбор.
Сравнительная таблица

1. Прежде всего, отсеем то, что нам точно не подойдет: LibreChat (слишком мудрёная установка и почти невозможная работа с файлами), Kaas (рекордсмен по глюкам), Tome (не умеет работать с файлами и формулами, плюс подглючивает). Эти ребята выбывают из гонки, финишируя где‑то за горизонтом дебага.
2. Выберите подходящую платформу:
Если вы фанат локальных серверов и готовы открыть вкладку
https://localhost:<порт>
— смело берите Open WebUI.Хотите просто войти на веб‑сайт с любого устройства — BotHub ваш выбор.
Нужен десктопный клиент, максимально приближённый к нативному опыту? Тогда присмотритесь к Msty или Cherry Studio (а для минимализма — ChatBox или ChatMCP).
Ищете мобильное приложение? Тут целая компания: ChatBox, ChatMCP, Cherry Studio и BotHub.
3. Присмотритесь к интересующим функциям:
Если важно иметь возможность закрепить избранные модели, ваши герои — Msty, Chatbox, Cherry Studio, Open WebUI.
Если на протяжении диалога вы переключаетесь между моделями и важна индикация модели‑генератора возле каждого сообщения, здесь на выбор: Msty, Chatbox, Cherry Studio, Open WebUI, BotHub.
Потоковая передача данных, отображение рассуждений — тот же набор «Кроме ChatMCP».
Глобальный поиск по всем диалогам: Msty (в тарифе Aurum и др.), Chatbox, Cherry Studio.
Сплит‑чаты: Msty или Open WebUI.
Суммаризация диалога, чтобы перейти в новый: Chatbox.
Наиболее полная поддержка файлов: Msty, Chery Studio, Open WebUI, BotHub.
Функции RAG (вспомогательная база знаний на основе файлов): Msty, Chatbox, Cherry Studio, Open WebUI.
Временное/постоянное отключение файлов, прикрепленных ранее в диалоге (для экономии контекста): Msty.
Визуализация Mermaid‑диаграмм: Msty, Chatbox, ChatMCP, Cherry Studio, Open WebUI.
Визуализация схем PlantUML и Graphviz: Cherry Studio.
Экспорт диалога в виде изображения: ChatMCP (.jpeg), Cherry Studio (.png).
Экспорт в виде документа: Msty (тариф Aurum и др.), Chatbox (.txt,.html), Cherry Studio (.docx), Open WebUI (.txt,.pdf).
В общем, где‑то на пересечении этих функций и спрятан ваш идеальный инструмент. А может, несколько сразу.
Теперь на моём рабочем столе царит порядок. Вместо десятка вкладок — два‑три аккуратных окна с агрегаторами. Я научился делегировать задачи разным моделям в сплит‑чатах, а мои документы больше не теряются в недрах контекста, благодаря функции их временного исключения. Чат с ИИ перестал быть рутиной и превратился в увлекательный и эффективный диалог.
Если бы мне пришлось начинать всё заново, я, не задумываясь, повторил бы этот путь. Пусть он был непрост, но финальный результат — чувство полного контроля над взаимодействием с искусственным интеллектом — того стоил. Надеюсь, мой опыт поможет и вам оптимизировать этот путь и сразу найти своего идеального цифрового компаньона.
Этот опыт заставил меня глубже погрузиться в тему. Я нашел множество новых программ, пробовал настройки и тестировал фичи. Сегодня мой цифровой арсенал выглядит совсем иначе.
makartarentiev
Когда скачал все нейросети на флешку в компьютерном клубе