
Привет! Меня зовут Андрей, я руковожу отделом продуктов клиентской безопасности в Selectel. С 1 марта 2026 года в России начнут действовать новые требования к безопасности AI-систем в госсекторе. ФСТЭК утвердила Приказ №117 — первый документ, который официально регулирует создание и внедрение AI-решений на базе LLM в государственных информационных системах. Разберемся, что изменения значат для рынка и как к ним подготовиться.
Почему это важно
Сегодня AI-решения активно используют в разных отраслях экономики, в том числе в государственных системах. Виртуальный ассистент обрабатывает запросы пользователей на портале «Госуслуги», диагностические системы помогают врачам анализировать медицинские данные, а умные платформы оптимизируют транспортные потоки в городах.
До сих пор сфера AI-технологий развивалась без четкого регулирования. Однако массовое внедрение систем с искусственным интеллектом приносило как финансовые, так и репутационные риски.
Утечки персональных данных. Например, когда пользователи передают персональную информацию через промты, а система использует ее для дообучения и может непреднамеренно воспроизвести.
Ошибки AI, которые могут повлиять на пользовательские решения. Сюда же включают проблему «галлюцинаций» моделей, когда алгоритм выдает ложные или вымышленные факты.
Кибератаки на госсистемы через уязвимости в AI-моделях. Когда с помощью специальных промтов злоумышленники пытаются получить доступ к закрытым данным или нарушить работу систем.
Приказ №117 устанавливает единые стандарты безопасности при разработке AI-сервисов для госсектора. Основные требования сформулированы в пунктах 60 и 61 документа.
Приказ №117 устанавливает новые правила игры для разработчиков и интеграторов AI-решений в госсекторе. Потенциальным подрядчикам недостаточно только создать работоспособный алгоритм — нужно пересматривать архитектуру решений, чтобы соответствовать требованиям ФСТЭК.

Security Center
Рассказываем о лучших практиках и средствах ИБ, требованиях и изменениях в законодательстве.
Что меняется: главные требования к AI в госсекторе
Защита данных
При использовании AI в информационных системах необходимо обеспечить защиту:
от несанкционированного доступа к данным;
вмешательства в работу систем, чтобы исключить возможность изменения, удаления или кражи информации;
нецелевого использования, когда AI применяют не так, как задумано.
Важно: нельзя использовать конфиденциальные и чувствительные данные из госсистем для обучения и улучшения моделей.
Для безопасной работы с LLM можно использовать изолированную инфраструктуру — например, А-ЦОД Selectel. В рамках услуги компании получают производительные серверы с GPU и аппаратным модулем доверенной загрузки, полностью изолированные выделенным межсетевым экраном, без промежуточного оборудования провайдера.
Инфраструктура защищена физически и логически, доступны подписные сервисы (антивирусы, сканеры уязвимостей, SIEM). При этом заказчик полностью контролирует политики безопасности и ПО, включая специализированные сервисы для безопасного взаимодействия пользователей с приложениями на базе LLM. Это особенно важно для проектов с повышенными требованиями к защите данных.
Контроль взаимодействия пользователя с AI
Согласно пункту 61 Приказа №117, возможные варианты коммуникации между пользователем и алгоритмами AI должны закладываться на этапе разработки системы.
Ограниченный ввод и вывод. При фиксированных сценариях (например, запрос — ответ) нужно заранее определить допустимые шаблоны вопросов и ответов.
Свободный ввод — под контролем. Если пользователь может писать произвольный текст, необходимо заранее задать запрещенные темы и форматы ответов. Система обязана фильтровать нарушения.
Проверка достоверности. В систему должна быть встроена проверка качества и корректности ответов. Ошибки фиксируются, анализируются и не должны использоваться повторно.
Отсутствие автономных изменений. AI не может самовольно менять параметры работы, влиять на архитектуру системы или алгоритмы без подтверждения.
Новые требования ФСТЭК кардинально меняют подход к созданию AI-сервисов для госсектора. Компании должны будут модернизировать архитектуру решений, внедрить механизмы контроля данных и строго регулировать взаимодействие пользователей с AI. Это повысит прозрачность и доверие со стороны заказчиков, а регуляторы получат инструменты для мониторинга.
Вместе с тем на рынке появляется новая ниша: пока нет готовых решений для безопасности приложений построенных на базе LLM, полностью соответствующих Приказу №117. Это шанс для разработчиков и стартапов предложить продукты, которые помогут подрядчикам соответствовать новым требованиям, и получить конкурентное преимущество.
Что компаниям делать сейчас
ФСТЭК пока не опубликовала методические материалы, где будут детально описаны технические меры и форматы реализации требований, поэтому у разработчиков есть возможность сосредоточиться на подготовительной работе.
Проанализируйте, какие из ваших решений могут попасть под действие приказа.
Выйдите на контакт с текущими или потенциальными заказчиками из госсектора — узнайте, какие сценарии для них приоритетны.
Следите за новостями ФСТЭК: особенно за методическими рекомендациями и разъяснениями по пунктам 60 и 61.
Учитывайте применение AI-технологий при моделировании ИБ-угроз в создаваемых сервисах и приложениях.
Приказ №117 ФСТЭК — это серьезный шаг в сторону регулирования AI в госсекторе. Он задает новые стандарты архитектуры, безопасности и ответственности для разработчиков. Подготовиться заранее — значит снизить риски, сохранить доверие заказчиков и занять место на рынке, который будет стремительно расти по мере цифровизации государственных организаций и компаний с госучастием.
nordray
Интересно - спасибо!