В поисках практических решений по глубокой интеграции искусственного интеллекта в настольные операционные системы я обратился к опыту китайских разработчиков. В отличие от западного подхода, где ИИ остается преимущественно облачным сервисом или отдельным приложением, в Китае его внедряют непосредственно в дистрибутивы Linux, создавая целостную пользовательскую среду. Как вы относитесь к ИИ? Нужен ли он в операционных системах? Давайте попробуем разобраться и порассуждать.

Дальше всего в интеграции ИИ в Linux продвинулись разработчики дистрибутива deepin V23 (Deepin / UOS AI). В Deepin V23 встроен помощник “UOS AI”, есть поддержка естественноязыковых команд управления системой, более 40 сценариев использования, адаптация под множество приложений. 

Важнейшая архитектурная особенность — гибкость на уровне модели. Система позволяет подключать как облачные большие языковые модели (LLM) через API, совместимый с форматом OpenAI, так и запускать локальные модели непосредственно на устройстве (on-device). Это стало возможным благодаря оптимизациям, выполненным совместно с Intel для эффективной работы на периферийных устройствах.

Основные компоненты и возможности
 
        Grand Search (“大搜索” или “Intelligent Grand Search”)

  • Система поиска по всему компьютеру: файлы, электронная почта, заметки и т. д.

  • Поддержка “fuzzy search” — т.е. нечёткий поиск: не обязательно правильно сформулированный запрос, система может понять по смыслу.

  • Естественно-языковые запросы: можно просто “на людском” написать “найди отчёты за прошлый месяц” — и поиск выдаёт соответствующие документы.

    Personal Knowledge Assistant (Персональный Помощник Знаний)

  • Позволяет загружать документы в систему, которые становятся “базой знаний”.

  • На основе этой базы можно делать запросы, создавать контент, искать информацию внутри своих документов.

  • Из-за вопроса приватности и производительности, по умолчанию используется “локальная модель” (local model) — всё происходит на машине пользователя, при определённых требованиях к железу (например, “рекомендуется процессор не ниже i5”).

    Deepin System Assistant

  • Ассистент, помогающий именно с системой. Вопросы типа “какие горячие клавиши?”, “как сделать скриншот?”, “как изменить настройки экрана”, “как переключить язык” и т.п.

    UOS AI FollowAlong & UOS AI Writing (в версии 1.5) Deepin

  • FollowAlong: когда ты выделяешь текст — появляется быстрое меню с возможностью получить разъяснение, перевод, резюме, расширение, “продолжение” текста.

  • Writing: в полях ввода (input boxes) нажатием сочетания “Super+Space” вызывается функция помощи в написании. Можно использовать шаблоны (отчёты, статьи, планы и др.)

    Большие модели / кастомизация моделей

  • UOS AI допускает подключение внешних моделей через API-интерфейс, совместимый с OpenAI “/v1/chat/completions”.

  • Можно подключать локальные модели: например через Ollama или через “Model Hub” Deepin.

  • Также есть возможность “private deployment” (частное развёртывание), что позволяет держать данные локальными, провайдер-независимыми.

    UI / взаимодействие

  • Интерфейс позволяет вызывать ассистента через сочетания клавиш (например, “Super + C” в версии 1.5) — чтобы быстро получить помощь или открыть диалог UOS AI.

  • Есть режимы: боковое окно (sidebar) и полноэкранный режим для UOS AI.

  • Подсветка UI: всплывающие меню, предварительный просмотр при поиске

Еще одним дистрибутивом, в который встроен искусственный интеллект, является openKylin. Это полностью открытый китайский дистрибутив Linux, развиваемый сообществом под эгидой KylinSoft / China Electronics Corporation. Его цель — создать национальную настольную ОС с полным контролем над стеком и независимостью от иностранных технологий (альтернатива Windows), при этом есть коммерческий Kylin OS (银河麒麟), который ставят в госсектор и госпредприятия КНР.

Начиная с версии openKylin 2.0 (выпущена летом 2024), разработчики начали активно внедрять ИИ-функции прямо в ОС, а не только как сторонние программы.

Основные ИИ-возможности openKylin 2.0

AI-ассистент (openKylin AI Assistant)

  • Встроенный персональный помощник, интегрированный в рабочий стол (среду UKUI).

  • Поддерживает естественноязыковые команды:

  • поиск файлов, заметок, писем, настроек;

  • открытие приложений и выполнение команд;

  • генерация резюме и пояснений к выделенному тексту.

  • Может отвечать на вопросы о системе: как изменить язык, где включить VPN, как настроить экран и т. д.

Генерация и обработка контента

  • Генерация изображений по текстовому описанию (Text-to-Image, AIGC).

  • Суммаризация и переписывание текстов (Summarize / Rewrite / Expand).

  • Автоматическое составление документов, планов, отчётов через шаблоны.

  • Контекстные функции в текстовых редакторах (вызываются из контекстного меню).

Работа с базами знаний

  • Поддержка векторного поиска и индексации локальных документов.

  • Пользователь может загрузить документы (PDF, DOCX и др.), и агент будет отвечать на вопросы по содержимому этих файлов.

  • Возможность создавать частные «доменные» базы знаний для организаций.

Подключение внешних моделей

  • Есть API-панель конфигурации моделей, совместимая с OpenAI-форматом (/v1/chat/completions).

  • Поддерживаются китайские LLM-платформы:

  • Baidu Qianfan / ERNIE-Bot

  • iFlytek Spark

  • Zhipu GLM

  • 360智脑, Tencent Hunyuan, Alibaba Tongyi

  • Можно подключать и любые сторонние модели (например, DeepSeek, ChatGPT), если они предоставляют совместимый API и ключ.

Локальные модели и приватность

  • Поддержка локальных LLM-моделей: можно запускать прямо на своём ПК (через Ollama, LM Studio и т. д.).

  • Все данные могут обрабатываться на устройстве (on-device) без передачи в интернет — важно для госсектора и корпоративных сред.

  • Возможность изолировать модели и базы знаний для разных пользователей и подразделений.

Технические детали и ограничения

  • Требуется современное оборудование (x86_64 или ARM64, не менее 16 ГБ RAM и желательно GPU).

  • Большие модели могут работать медленно без GPU.

  • Большая часть интерфейса и моделей ориентирована на китайский язык (английская поддержка ограничена).

  • Некоторые функции пока в стадии beta и не включены по умолчанию (нужно активировать через центр приложений).

Возможность / компонент

UOS AI (Deepin)

openKylin AI

Интеграция в ОС

Полная интеграция в рабочий стол DDE

Интеграция в среду UKUI

Основные сценарии

Управление системой, поиск, помощь, генерация текста

Поиск, помощь, генерация текста и изображений

Встроенные модели

Поддержка локальных моделей (например DeepSeek-R1)

Поддержка локальных моделей

Облачные модели

Поддержка через OpenAI-совместимый API

Поддержка через OpenAI-совместимый API

Поддерживаемые платформы LLM

Baidu Qianfan, iFlytek Spark, Zhipu GLM, DeepSeek и др.

Baidu Qianfan, iFlytek Spark, Zhipu GLM, Tencent, 360 и др.

Подключение сторонних моделей

Да (через настройку кастомных моделей)

Да (через API-панель)

Локальные базы знаний

Есть: загрузка документов, векторный поиск

Есть: загрузка документов, векторный поиск

Генерация изображений

Нет (пока)

Есть (Text-to-Image, AIGC)

Ассистент по системе

Есть: справка, настройки, подсказки

Есть: справка, настройки, подсказки

Режим работы без сети

Да (он-девайс модели)

Да (он-девайс модели)

Основной язык

Китайский, частично английский

Китайский, частично английский

Стадия зрелости

Более зрелая, используется в коммерческом UOS

Более новая, часть функций в beta

Статус лицензий: базовая ОС

Полностью открытая (Deepin)

Полностью открытая

Статус лицензий: оболочка/раб. среда

DDE, DTK — открытые

UKUI — открытая

Статус лицензий: ИИ-модуль

Частично закрытый (UOS AI, код не весь открыт)

Частично открытый (openKylin AI Assistant, часть кода закрыта)

Зависимость от внешних сервисов

Возможна (облачные API)

Возможна (облачные API)

Что именно открыто в openKylin

Исходный код большинства ключевых компонентов опубликован на git.openkylin.top под свободными лицензиями (GPLv3, LGPL, Apache 2.0 и др.). В открытом виде доступны: ядро Linux и системные библиотеки, графическая оболочка UKUI, менеджер пакетов, собственные системные службы и панели настроек, а также SDK для приложений и инструментальная среда.

Компоненты, которые обеспечивают интеграцию с ИИ, в том числе панели и интерфейсы openKylin AI Assistant, тоже опубликованы частично — как модули для взаимодействия с LLM через OpenAI-совместимый API (/v1/chat/completions).

Эти модули не жёстко связаны с конкретными китайскими облачными моделями — они работают с любыми API-совместимыми LLM (например, GigaChat, DeepSeek, Mistral и т. д.), если есть endpoint и API-ключ.

 Практически: что можно сделать

  • Взять исходники openKylin (или UKUI) как основу.

  • Использовать их модули интеграции LLM (плагины openkylin-ai, интерфейсы вызова API).

  • Добавить собственные конфигурации внешних моделей (например, GigaChat, DeepSeek-R3, Mistral и др.).

  • Создать продукт (настольную среду, standalone-приложение) с нужной функциональностью.

 Почему Запад не спешит? Контраст в целях и экосистемах

Причина отсутствия аналогичных решений в западных дистрибутивах (Ubuntu, Fedora) лежит не в технических, а в организационно-экономических плоскостях.

  • Цели разные: Западные дистрибутивы стремятся быть минималистичными, модульными платформами. Китайские — стремятся стать готовой заменой Windows/MacOS «из коробки», где ИИ-ассистент является конкурентным преимуществом.

  •  Модель финансирования: В Китае разработка национальных ОС и LLM-платформ часто финансируется государством и крупными корпорациями, что стимулирует их тесную интеграцию. На Западе экосистема раздроблена: ОС — у одного вендора, лучшие облачные ИИ — у других, и мотивации для глубокой интеграции нет. 

  • Лицензии и приватность: Включение проприетарных облачных ИИ (ChatGPT, Claude) в дистрибутив связано с юридическими сложностями. Китайские разработчики активнее используют модели с открытыми весами (DeepSeek, Qwen) или заключают корпоративные соглашения с локальными провайдерами.

Отдельные попытки на Западе есть, но они не системные, Fedora, Ubuntu, openSUSE и др. пока не добавляют ИИ в базовую систему, но:

Canonical делает отдельные пакеты для локального запуска LLM (Ollama, LLaMA),

Red Hat развивает Enterprise Linux AI, но как отдельную платформу для обучения моделей, а не как пользовательский агент,

Есть сторонние плагины для GNOME/KDE (например, Copilot-подобные расширения), но они не входят в дистрибутивы.

То есть элементы есть, но нет стратегической цели сделать «AI-ОС», как у openKylin и Deepin.

Выводы и уроки для российской экосистемы

Нужно максимально использовать китайской опыт и развивать возможности обработки данных и документов непосредственно на устройстве либо на сервере внутренней сети, поскольку это важно для госсектора и корпоративных нужд.

Локальность и контроль. Возможность обработки данных on-device или на внутреннем сервере — не просто фича, а базовая необходимость для госсектора и корпораций, обеспечивающая безопасность и цифровой суверенитет.

 Специализированный клиент. Для комфортной работы с LLM, особенно в длинных диалогах, нужны нативные приложения, а не браузер. Спецклиенты, как в Deepin или openKylin, управляют памятью и контекстом эффективнее, избегая «тормозов» веб-интерфейсов.

 Интеграция в среду. ИИ должен быть вплетен в рабочий процесс: в поиск, файловый менеджер, текстовые редакторы. Это не просто чат-бот, а системный слой помощи.

 Открытость и гибкость. Архитектура, позволяющая подключать различные внешние и локальные модели через стандартизированный API (OpenAI-совместимый), даёт свободу выбора и защищает от зависимости от одного вендора.

А как вы думаете, насколько эти принципы реальны и критичны для нашего рынка? Буду рад вашим мнениям в комментариях.

Комментарии (4)


  1. nukler
    15.12.2025 12:21

    Забавно что как только в W11 появился ИИ, тут же народ побежал его выковыривать. Странно.


  1. Bardakan
    15.12.2025 12:21

    почему вы рассказываете про deepin 23, когда сейчас актуальная версия 25?


    1. lbkanter Автор
      15.12.2025 12:21

      За китайскими линуксами не уследишь. Этот текст готовился мсяца три назад как внутренний документ, потом решили опубликовать с небольшими изменениями.


  1. JBFW
    15.12.2025 12:21

    а потом они будут жаловаться "я ничего не нажимал, а оно само..." (собрало все просмотренные за год фото с кошечками и котиками и отправило начальству, для принятие правовой оценки)