Привет! Меня зовут Андрей, я руковожу отделом продуктов клиентской безопасности в Selectel. С 1 марта 2026 года в России начнут действовать новые требования к безопасности AI-систем в госсекторе. ФСТЭК утвердила Приказ №117 — первый документ, который официально регулирует создание и внедрение AI-решений на базе LLM в государственных информационных системах. Разберемся, что изменения значат для рынка и как к ним подготовиться.

Почему это важно

Сегодня AI-решения активно используют в разных отраслях экономики, в том числе в государственных системах. Виртуальный ассистент обрабатывает запросы пользователей на портале «Госуслуги», диагностические системы помогают врачам анализировать медицинские данные, а умные платформы оптимизируют транспортные потоки в городах. 

До сих пор сфера AI-технологий развивалась без четкого регулирования. Однако массовое внедрение систем с искусственным интеллектом приносило как финансовые, так и репутационные риски.

  • Утечки персональных данных. Например, когда пользователи передают персональную информацию через промты, а система использует ее для дообучения и может непреднамеренно воспроизвести. 

  • Ошибки AI, которые могут повлиять на пользовательские решения. Сюда же включают проблему «галлюцинаций» моделей, когда алгоритм выдает ложные или вымышленные факты.

  • Кибератаки на госсистемы через уязвимости в AI-моделях. Когда с помощью специальных промтов злоумышленники пытаются получить доступ к закрытым данным или нарушить работу систем.

Приказ №117 устанавливает единые стандарты безопасности при разработке AI-сервисов для госсектора. Основные требования сформулированы в пунктах 60 и 61 документа.

Приказ №117 устанавливает новые правила игры для разработчиков и интеграторов AI-решений в госсекторе. Потенциальным подрядчикам недостаточно только создать работоспособный алгоритм — нужно пересматривать архитектуру решений, чтобы соответствовать требованиям ФСТЭК.

Security Center

Рассказываем о лучших практиках и средствах ИБ, требованиях и изменениях в законодательстве.

Исследовать →

Что меняется: главные требования к AI в госсекторе

Защита данных

При использовании AI в информационных системах необходимо обеспечить защиту:

  • от несанкционированного доступа к данным;

  • вмешательства в работу систем, чтобы исключить возможность изменения, удаления или кражи информации;

  • нецелевого использования, когда AI применяют не так, как задумано.

Важно: нельзя использовать конфиденциальные и чувствительные данные из госсистем для обучения и улучшения моделей.

Для безопасной работы с LLM можно использовать изолированную инфраструктуру — например, А-ЦОД Selectel. В рамках услуги компании получают производительные серверы с GPU и аппаратным модулем доверенной загрузки, полностью изолированные выделенным межсетевым экраном, без промежуточного оборудования провайдера.

Инфраструктура защищена физически и логически, доступны подписные сервисы (антивирусы, сканеры уязвимостей, SIEM). При этом заказчик полностью контролирует политики безопасности и ПО, включая специализированные сервисы для безопасного взаимодействия пользователей с приложениями на базе LLM. Это особенно важно для проектов с повышенными требованиями к защите данных.

Контроль взаимодействия пользователя с AI 

Согласно пункту 61 Приказа №117, возможные варианты коммуникации между пользователем и алгоритмами AI должны закладываться на этапе разработки системы.

  • Ограниченный ввод и вывод. При фиксированных сценариях (например, запрос — ответ) нужно заранее определить допустимые шаблоны вопросов и ответов.

  • Свободный ввод — под контролем. Если пользователь может писать произвольный текст, необходимо заранее задать запрещенные темы и форматы ответов. Система обязана фильтровать нарушения.

  • Проверка достоверности. В систему должна быть встроена проверка качества и корректности ответов. Ошибки фиксируются, анализируются и не должны использоваться повторно.

  • Отсутствие автономных изменений. AI не может самовольно менять параметры работы, влиять на архитектуру системы или алгоритмы без подтверждения.

Новые требования ФСТЭК кардинально меняют подход к созданию AI-сервисов для госсектора. Компании должны будут модернизировать архитектуру решений, внедрить механизмы контроля данных и строго регулировать взаимодействие пользователей с AI. Это повысит прозрачность и доверие со стороны заказчиков, а регуляторы получат инструменты для мониторинга. 

Вместе с тем на рынке появляется новая ниша: пока нет готовых решений для безопасности приложений построенных на базе LLM, полностью соответствующих Приказу №117. Это шанс для разработчиков и стартапов предложить продукты, которые помогут подрядчикам соответствовать новым требованиям, и получить конкурентное преимущество.

Что компаниям делать сейчас

ФСТЭК пока не опубликовала методические материалы, где будут детально описаны технические меры и форматы реализации требований, поэтому у разработчиков есть возможность сосредоточиться на подготовительной работе.

  • Проанализируйте, какие из ваших решений могут попасть под действие приказа.

  • Выйдите на контакт с текущими или потенциальными заказчиками из госсектора — узнайте, какие сценарии для них приоритетны.

  • Следите за новостями ФСТЭК: особенно за методическими рекомендациями и разъяснениями по пунктам 60 и 61.

  • Учитывайте применение AI-технологий при моделировании ИБ-угроз в создаваемых сервисах и приложениях.

Приказ №117 ФСТЭК — это серьезный шаг в сторону регулирования AI в госсекторе. Он задает новые стандарты архитектуры, безопасности и ответственности для разработчиков. Подготовиться заранее — значит снизить риски, сохранить доверие заказчиков и занять место на рынке, который будет стремительно расти по мере цифровизации государственных организаций и компаний с госучастием.

Комментарии (1)


  1. nordray
    08.08.2025 09:10

    Интересно - спасибо!