
Сервисы с ИИ развиваются стремительно — сегодня почти каждый продукт старается встроить в себя хотя бы один нейросетевой‑модуль. Иногда достаточно одной фразы «Мы используем искусственный интеллект», чтобы привлечь внимание аудитории и повысить интерес к продукту.
Однако чем глубже ИИ встраивается в реальные бизнес‑процессы, тем выше становится запрос на его ответственное использование и управление им. Возникает очевидный вопрос: как убедиться, что такие системы этичны, устойчивы и безопасны?
Для крупных разработчиков LLM доверие стало одной из ключевых целей. Чтобы его добиться, компании стремятся продемонстрировать прозрачность работы моделей, объясняют их решения, применяют механизмы обеспечения справедливости и недискриминации, а также используют стратегию управления рисками.
Меня зовут Анна Зинчук, я руководитель службы комплаенса и обучения информационной безопасности. В статье я расскажу, как измерить доверие к ИИ и закрепить его.
Почему доверие к ИИ так важно
Чтобы пользователи чувствовали себя увереннее при работе с ИИ, важно закрывать сразу несколько критичных вопросов. В первую очередь — конфиденциальность и безопасность.
Не менее важно, чтобы работа была прозрачной: люди хотят понимать, как устроена модель и на чём основаны её ответы. Возможность верификации информации — например, наличие ссылок на источники — тоже играет большую роль в формировании доверия.
Многие компании дополнительно предоставляют опцию локального использования: развёртывание on‑premises внутри периметра организации помогает снизить риски утечек. Отдельный блок — инструменты RAG (retrieval‑augmented generation) и гибкие ограничения по домену знаний: они позволяют задавать чёткие рамки, в которых ИИ формирует ответы, например только в рамках юридической тематики.
Наконец, важны открытость компании в разборе инцидентов и подтверждение качества решений — будь то экспертные оценки или сертификация по отраслевым стандартам.
Можно выделить шесть основных рисков, связанных с ИИ:
Зависимость и потеря навыков. Кажется, такой же риск видели для библиотек, когда появился интернет. Люди боятся, что ИИ их заменит или они перестанут критически мыслить.
Этические риски. Что, если модель будет кого‑то дискриминировать, обижать, окажется токсичной? Кто несёт ответственность за вредный совет?
Галлюцинации. GPT может уверенно выдумывать информацию, особенно если не знает ответа или вопрос некорректен. Наверное, многие слышали, как модели выдумывали цитаты, которые никогда не звучали на самом деле.
Конфиденциальность и утечка данных. Люди боятся, что введённая ими или другими пользователями информация может быть включена в выдачу. Особенно этого опасаются корпоративные клиенты, медицинские и юридические организации.
Манипуляции и влияние на мнение. GPT выдаёт очень убедительные ответы, что может искажать факты и распространять неверную информацию.
Непонятные источники. Людям непонятно, откуда модель взяла такой ответ, где первоисточник и на какой ресурс она опирается. Это снижает доверие к ответам моделей.
Сертификация ISO 42001: дополнительная гарантия надёжности
Доверие к ИИ‑сервисам сегодня строится не только на внутренних регламентах компаний, но и на прозрачных, внешне подтверждённых стандартах. Технологии развиваются довольно быстро, поэтому отраслевые стандарты становятся важным инструментом для пользователей и бизнеса.
В конце 2023 года был принят первый международный стандарт управления ИИ — ISO 42 001. Уже к середине 2025 года по нему сертифицированы Amazon Bedrock, Textract, Anthropic, Microsoft Copilot и ряд других решений крупных игроков.
И мы не отстаём от мирового опыта: в июне 2025 года YandexGPT успешно прошла сертификацию ISO 42 001. В область сертификации вошли все ключевые процессы разработки модели и её предоставления через сервис Yandex Cloud AI Studio. Для пользователей это означает, что у сервиса есть понятные механизмы обеспечения безопасности, конфиденциальности и этичного применения ИИ — и всё это проверено независимым аудитом.
Что такое ISO/IEC 42001 и что он учитывает
ISO/IEC 42 001 — это первый международный стандарт, который задаёт понятные рамки для управления технологиями искусственного интеллекта. Он предлагает системный подход: от этики и прозрачности до защиты данных и ответственности всех участников процесса. По сути, этот стандарт помогает встроить ИИ в бизнес так, чтобы риски были осознанными и управляемыми.
ISO 42 001 охватывает все ключевые области:
ведение инвентаризации компонентов разработки модели;
описание архитектуры и всех элементов системы управления;
чёткую политику использования ИИ, включая принципы этики и оценки влияния на людей, группы и общество в целом;
оценку рисков и баланса между позитивным и негативным влиянием технологий;
описание роли человека в системе с ИИ;
правила жизненного цикла модели и механизм проверки их соблюдения;
безопасную разработку и управление уязвимостями;
политику управления данными, на которых обучается модель, и их использованием;
правила информирования пользователей и третьих сторон о том, как ИИ влияет на них и что происходит в случае инцидентов;
понимание и описание зон применения ИИ — от экологии и финансов до политики и медицины;
участие третьих сторон в жизненном цикле модели;
соответствие действующему законодательству.
Важно, что ISO 42 001 не живёт в вакууме: при работе с этим стандартом компании начинают с определения ролей в системе ИИ. Таких ролей — шесть, и они подробно описаны в связанном стандарте ISO/IEC 22 989.
Роль |
Описание |
AI Provider |
Предоставляет платформы или ИИ‑продукты/сервисы |
AI Producer |
Разрабатывает и тестирует ИИ‑решения |
AI Customer |
Заказывает или использует ИИ, но не участвует в разработке |
AI Partner |
Интегрирует, обучает, аудитирует ИИ |
AI Subject |
На кого влияет ИИ (люди, данные и т. п.) |
Relevant Authorities |
Регулируют, устанавливают политику и контроль за использованием ИИ |
Сертифицироваться по ISO 42 001 можно на любую роль или их комбинацию — главное, чтобы в компании была выстроена система управления ИИ (AIMS). В нашем случае в область сертификации попали сразу две ключевые роли: разработка самой модели (AI Producer) и предоставление платформы на базе Yandex Cloud (AI Provider).
Набор требований стандарта напрямую зависит от того, какие роли включены в скоуп сертификации. На практике это важно: требования к процессам разработки и обучению модели сильно отличаются от требований к системе, которая эту модель использует.
Нам близок подход, при котором сертифицируется именно компания и её процессы, а не конкретная «установка» модели. Такой подход позволяет технологиям развиваться гибко, следуя за рынком, но при этом — в понятных и проверяемых рамках.
Почему YandexGPT понадобилась сертификация
Сертификация YandexGPT не возникла на пустом месте. Мы и раньше придерживались принципов ответственного подхода к разработке продуктов и развитию технологий ИИ. В 2021 году Яндекс участвовал в разработке Кодекса этики в сфере ИИ в составе Альянса в области ИИ, а также компания подписала Декларацию об ответственном генеративном ИИ. А ещё внутри Яндекса действует этический комитет, закреплены принципы ответственного ИИ, которым мы неотступно следуем, а процессы управления данными для обучения и тестирования моделей встроены во все этапы разработки.
Что касается информационной безопасности, то к ИИ мы всегда относились так же серьёзно, как и к любому другому нашему продукту. С самого начала был налажен процесс управления уязвимостями, архитектура проходила аудит в рамках SDLC, а внутренняя экспертиза по безопасности покрывала как разработку, так и внедрение моделей.
Сама сертификация не была «волшебной кнопкой», но стала точкой роста: параллельно с ней мы серьёзно укрепили безопасность решений с ИИ внутри. Например, мы описали существующие атаки на генеративные LLM и наладили обмен знаниями внутри команды, внедрили AI Threat Modelling (OWASP AI Matrix), усилили правила работы с чувствительными данными, создали чек‑листы для проверки сервисов с ML и отдельные процессы реагирования на инциденты — в том числе в случаях, если модель начнёт выдавать неожиданные или нежелательные ответы.
Некоторые практики уже применялись, но не были формализованы. Например, управление рисками и оценка влияния продукта на разные группы пользователей. Готовясь к сертификации, мы оформили эти практики в отдельные процессы. Появился даже новый формат — оценка воздействия: ключевые сотрудники из разных направлений собираются и обсуждают, как развитие ИИ может повлиять на людей, компании и общество.
Недавно мы запустили отдельную инициативу в рамках программы «Охота за ошибками» — AI / ML Security. Мы пригласили исследователей находить уязвимости в системах и приложениях, использующих генеративные нейросети. Это включает как потенциальные проблемы в самих ML‑моделях, так и ошибки конфигурации в инфраструктуре, которая обеспечивает их работу.
Процесс сертификации от идеи до сертификационного аудита занял чуть меньше года. Это стандартно для прохождения всех этапов развития систем управления. Мы начали с внешнего GAP‑анализа и посмотрели на общую картину с точки зрения стандарта ISO. Обучили своих специалистов ISO 42 001. Сделали очередную итерацию оценки рисков — это уже сложившаяся практика в компании. Затем небольшая магия с документами, которые требуются по стандарту. Описание процессов управления данными, обучения и тестирования модели, процессы безопасной разработки и этические принципы у нас уже были из коробки. Завершал процесс внутренний аудит и затем уже внешний сертификационный.
Итоги
Внедрять и проходить сертификацию по совершенно новому, ещё только формирующемуся международному стандарту — особенно в такой быстро меняющейся области, как ИИ, — действительно было непросто. Но в итоге сертификат ISO 42 001:
дал возможность для клиентов, которые покупают или получают доступ к API нашей GPT‑модели, строить собственные ИИ‑системы, опираясь на прозрачную и формально подтверждённую базу;
стал доказательством того, что мы управляем рисками — этично, прозрачно и с учётом безопасности;
подтвердил нашу экспертизу в разработке надёжных и безопасных решений на базе ИИ.
И, наконец, полученный сертификат — признание того, что мы развиваем технологии в одной парадигме с мировыми лидерами.
zababurin
А какие ограничения у алисы ? Я туда свой проект вставить не могу. Ответы обрезаются.
Фактически я не могу пользоваться вашими продуктами. Это при том, что это про версия.