
В поисках практических решений по глубокой интеграции искусственного интеллекта в настольные операционные системы я обратился к опыту китайских разработчиков. В отличие от западного подхода, где ИИ остается преимущественно облачным сервисом или отдельным приложением, в Китае его внедряют непосредственно в дистрибутивы Linux, создавая целостную пользовательскую среду. Как вы относитесь к ИИ? Нужен ли он в операционных системах? Давайте попробуем разобраться и порассуждать.
Дальше всего в интеграции ИИ в Linux продвинулись разработчики дистрибутива deepin V23 (Deepin / UOS AI). В Deepin V23 встроен помощник “UOS AI”, есть поддержка естественноязыковых команд управления системой, более 40 сценариев использования, адаптация под множество приложений.
Важнейшая архитектурная особенность — гибкость на уровне модели. Система позволяет подключать как облачные большие языковые модели (LLM) через API, совместимый с форматом OpenAI, так и запускать локальные модели непосредственно на устройстве (on-device). Это стало возможным благодаря оптимизациям, выполненным совместно с Intel для эффективной работы на периферийных устройствах.

Основные компоненты и возможности
Grand Search (“大搜索” или “Intelligent Grand Search”)
Система поиска по всему компьютеру: файлы, электронная почта, заметки и т. д.
Поддержка “fuzzy search” — т.е. нечёткий поиск: не обязательно правильно сформулированный запрос, система может понять по смыслу.
-
Естественно-языковые запросы: можно просто “на людском” написать “найди отчёты за прошлый месяц” — и поиск выдаёт соответствующие документы.
Personal Knowledge Assistant (Персональный Помощник Знаний)
Позволяет загружать документы в систему, которые становятся “базой знаний”.
На основе этой базы можно делать запросы, создавать контент, искать информацию внутри своих документов.
-
Из-за вопроса приватности и производительности, по умолчанию используется “локальная модель” (local model) — всё происходит на машине пользователя, при определённых требованиях к железу (например, “рекомендуется процессор не ниже i5”).
Deepin System Assistant

-
Ассистент, помогающий именно с системой. Вопросы типа “какие горячие клавиши?”, “как сделать скриншот?”, “как изменить настройки экрана”, “как переключить язык” и т.п.
UOS AI FollowAlong & UOS AI Writing (в версии 1.5) Deepin
FollowAlong: когда ты выделяешь текст — появляется быстрое меню с возможностью получить разъяснение, перевод, резюме, расширение, “продолжение” текста.
-
Writing: в полях ввода (input boxes) нажатием сочетания “Super+Space” вызывается функция помощи в написании. Можно использовать шаблоны (отчёты, статьи, планы и др.)
Большие модели / кастомизация моделей
UOS AI допускает подключение внешних моделей через API-интерфейс, совместимый с OpenAI “/v1/chat/completions”.
Можно подключать локальные модели: например через Ollama или через “Model Hub” Deepin.
-
Также есть возможность “private deployment” (частное развёртывание), что позволяет держать данные локальными, провайдер-независимыми.
UI / взаимодействие
Интерфейс позволяет вызывать ассистента через сочетания клавиш (например, “Super + C” в версии 1.5) — чтобы быстро получить помощь или открыть диалог UOS AI.
Есть режимы: боковое окно (sidebar) и полноэкранный режим для UOS AI.
Подсветка UI: всплывающие меню, предварительный просмотр при поиске

Еще одним дистрибутивом, в который встроен искусственный интеллект, является openKylin. Это полностью открытый китайский дистрибутив Linux, развиваемый сообществом под эгидой KylinSoft / China Electronics Corporation. Его цель — создать национальную настольную ОС с полным контролем над стеком и независимостью от иностранных технологий (альтернатива Windows), при этом есть коммерческий Kylin OS (银河麒麟), который ставят в госсектор и госпредприятия КНР.
Начиная с версии openKylin 2.0 (выпущена летом 2024), разработчики начали активно внедрять ИИ-функции прямо в ОС, а не только как сторонние программы.
Основные ИИ-возможности openKylin 2.0
AI-ассистент (openKylin AI Assistant)
Встроенный персональный помощник, интегрированный в рабочий стол (среду UKUI).
Поддерживает естественноязыковые команды:
поиск файлов, заметок, писем, настроек;
открытие приложений и выполнение команд;
генерация резюме и пояснений к выделенному тексту.
Может отвечать на вопросы о системе: как изменить язык, где включить VPN, как настроить экран и т. д.
Генерация и обработка контента
Генерация изображений по текстовому описанию (Text-to-Image, AIGC).
Суммаризация и переписывание текстов (Summarize / Rewrite / Expand).
Автоматическое составление документов, планов, отчётов через шаблоны.
Контекстные функции в текстовых редакторах (вызываются из контекстного меню).
Работа с базами знаний
Поддержка векторного поиска и индексации локальных документов.
Пользователь может загрузить документы (PDF, DOCX и др.), и агент будет отвечать на вопросы по содержимому этих файлов.
Возможность создавать частные «доменные» базы знаний для организаций.
Подключение внешних моделей
Есть API-панель конфигурации моделей, совместимая с OpenAI-форматом (/v1/chat/completions).
Поддерживаются китайские LLM-платформы:
Baidu Qianfan / ERNIE-Bot
iFlytek Spark
Zhipu GLM
360智脑, Tencent Hunyuan, Alibaba Tongyi
Можно подключать и любые сторонние модели (например, DeepSeek, ChatGPT), если они предоставляют совместимый API и ключ.
Локальные модели и приватность
Поддержка локальных LLM-моделей: можно запускать прямо на своём ПК (через Ollama, LM Studio и т. д.).
Все данные могут обрабатываться на устройстве (on-device) без передачи в интернет — важно для госсектора и корпоративных сред.
Возможность изолировать модели и базы знаний для разных пользователей и подразделений.
Технические детали и ограничения
Требуется современное оборудование (x86_64 или ARM64, не менее 16 ГБ RAM и желательно GPU).
Большие модели могут работать медленно без GPU.
Большая часть интерфейса и моделей ориентирована на китайский язык (английская поддержка ограничена).
Некоторые функции пока в стадии beta и не включены по умолчанию (нужно активировать через центр приложений).
Возможность / компонент |
UOS AI (Deepin) |
openKylin AI |
Интеграция в ОС |
Полная интеграция в рабочий стол DDE |
Интеграция в среду UKUI |
Основные сценарии |
Управление системой, поиск, помощь, генерация текста |
Поиск, помощь, генерация текста и изображений |
Встроенные модели |
Поддержка локальных моделей (например DeepSeek-R1) |
Поддержка локальных моделей |
Облачные модели |
Поддержка через OpenAI-совместимый API |
Поддержка через OpenAI-совместимый API |
Поддерживаемые платформы LLM |
Baidu Qianfan, iFlytek Spark, Zhipu GLM, DeepSeek и др. |
Baidu Qianfan, iFlytek Spark, Zhipu GLM, Tencent, 360 и др. |
Подключение сторонних моделей |
Да (через настройку кастомных моделей) |
Да (через API-панель) |
Локальные базы знаний |
Есть: загрузка документов, векторный поиск |
Есть: загрузка документов, векторный поиск |
Генерация изображений |
Нет (пока) |
Есть (Text-to-Image, AIGC) |
Ассистент по системе |
Есть: справка, настройки, подсказки |
Есть: справка, настройки, подсказки |
Режим работы без сети |
Да (он-девайс модели) |
Да (он-девайс модели) |
Основной язык |
Китайский, частично английский |
Китайский, частично английский |
Стадия зрелости |
Более зрелая, используется в коммерческом UOS |
Более новая, часть функций в beta |
Статус лицензий: базовая ОС |
Полностью открытая (Deepin) |
Полностью открытая |
Статус лицензий: оболочка/раб. среда |
DDE, DTK — открытые |
UKUI — открытая |
Статус лицензий: ИИ-модуль |
Частично закрытый (UOS AI, код не весь открыт) |
Частично открытый (openKylin AI Assistant, часть кода закрыта) |
Зависимость от внешних сервисов |
Возможна (облачные API) |
Возможна (облачные API) |
Что именно открыто в openKylin
Исходный код большинства ключевых компонентов опубликован на git.openkylin.top под свободными лицензиями (GPLv3, LGPL, Apache 2.0 и др.). В открытом виде доступны: ядро Linux и системные библиотеки, графическая оболочка UKUI, менеджер пакетов, собственные системные службы и панели настроек, а также SDK для приложений и инструментальная среда.
Компоненты, которые обеспечивают интеграцию с ИИ, в том числе панели и интерфейсы openKylin AI Assistant, тоже опубликованы частично — как модули для взаимодействия с LLM через OpenAI-совместимый API (/v1/chat/completions).
Эти модули не жёстко связаны с конкретными китайскими облачными моделями — они работают с любыми API-совместимыми LLM (например, GigaChat, DeepSeek, Mistral и т. д.), если есть endpoint и API-ключ.
Практически: что можно сделать
Взять исходники openKylin (или UKUI) как основу.
Использовать их модули интеграции LLM (плагины openkylin-ai, интерфейсы вызова API).
Добавить собственные конфигурации внешних моделей (например, GigaChat, DeepSeek-R3, Mistral и др.).
Создать продукт (настольную среду, standalone-приложение) с нужной функциональностью.
Почему Запад не спешит? Контраст в целях и экосистемах
Причина отсутствия аналогичных решений в западных дистрибутивах (Ubuntu, Fedora) лежит не в технических, а в организационно-экономических плоскостях.
Цели разные: Западные дистрибутивы стремятся быть минималистичными, модульными платформами. Китайские — стремятся стать готовой заменой Windows/MacOS «из коробки», где ИИ-ассистент является конкурентным преимуществом.
Модель финансирования: В Китае разработка национальных ОС и LLM-платформ часто финансируется государством и крупными корпорациями, что стимулирует их тесную интеграцию. На Западе экосистема раздроблена: ОС — у одного вендора, лучшие облачные ИИ — у других, и мотивации для глубокой интеграции нет.
Лицензии и приватность: Включение проприетарных облачных ИИ (ChatGPT, Claude) в дистрибутив связано с юридическими сложностями. Китайские разработчики активнее используют модели с открытыми весами (DeepSeek, Qwen) или заключают корпоративные соглашения с локальными провайдерами.
Отдельные попытки на Западе есть, но они не системные, Fedora, Ubuntu, openSUSE и др. пока не добавляют ИИ в базовую систему, но:
Canonical делает отдельные пакеты для локального запуска LLM (Ollama, LLaMA),
Red Hat развивает Enterprise Linux AI, но как отдельную платформу для обучения моделей, а не как пользовательский агент,
Есть сторонние плагины для GNOME/KDE (например, Copilot-подобные расширения), но они не входят в дистрибутивы.
То есть элементы есть, но нет стратегической цели сделать «AI-ОС», как у openKylin и Deepin.
Выводы и уроки для российской экосистемы
Нужно максимально использовать китайской опыт и развивать возможности обработки данных и документов непосредственно на устройстве либо на сервере внутренней сети, поскольку это важно для госсектора и корпоративных нужд.
Локальность и контроль. Возможность обработки данных on-device или на внутреннем сервере — не просто фича, а базовая необходимость для госсектора и корпораций, обеспечивающая безопасность и цифровой суверенитет.
Специализированный клиент. Для комфортной работы с LLM, особенно в длинных диалогах, нужны нативные приложения, а не браузер. Спецклиенты, как в Deepin или openKylin, управляют памятью и контекстом эффективнее, избегая «тормозов» веб-интерфейсов.
Интеграция в среду. ИИ должен быть вплетен в рабочий процесс: в поиск, файловый менеджер, текстовые редакторы. Это не просто чат-бот, а системный слой помощи.
Открытость и гибкость. Архитектура, позволяющая подключать различные внешние и локальные модели через стандартизированный API (OpenAI-совместимый), даёт свободу выбора и защищает от зависимости от одного вендора.
А как вы думаете, насколько эти принципы реальны и критичны для нашего рынка? Буду рад вашим мнениям в комментариях.
Комментарии (4)

JBFW
15.12.2025 12:21а потом они будут жаловаться "я ничего не нажимал, а оно само..." (собрало все просмотренные за год фото с кошечками и котиками и отправило начальству, для принятие правовой оценки)
nukler
Забавно что как только в W11 появился ИИ, тут же народ побежал его выковыривать. Странно.