Привет, Хабр. Меня зовут Таня Дорохова, я продуктовый дизайнер в Центре ИИ Контура.
За последние пару лет в интерфейсах появился новый паттерн — ✨. Магическая искорка сигналит, что здесь работает ИИ. Визуальный язык для новых функций, про это даже есть отличная статья на UX Design.
Но с маркировкой сгенерированного контента всё сложнее. Нет единого стандарта: кто-то прячет информацию, кто-то показывает крупный дисклеймер, кто-то вообще не маркирует.
Я столкнулась с подобной задачей в Контуре: в продукте речевой аналитики появилась функция обработки записей разговоров менеджеров. LLM помогает проверить соблюдение методологии в сотнях диалогов. Результат влияет на показатели менеджеров. Если не указывать использование ИИ — либо люди не поймут, что контент может быть неточным (риск конфликтов), либо вообще перестанут доверять продукту.
Я изучила практики разных компаний и родилась идея: уровни маркировки можно систематизировать как предупреждения на лекарствах.
⚠️ Это не официальный стандарт, а моя систематизация на основе подходов, которые используют другие.

Уровень 1: Витамины
Состав указан мелким шрифтом на обороте упаковки. Никто его обычно не читает, но информация есть.
Как выглядит в продуктах:
- Метка может быть спрятана в меню с тремя точками. Например, так выглядит маркировка в Нельзяграмм и Яндекс.Директе. 
- Информация может содержаться только в FAQ. 

Когда использовать: Развлекательный контент, низкие риски. Если ИИ ошибётся, ничего страшного не произойдёт. Например, если ИИ предложит странный фильм — пользователь просто не посмотрит его, ничего не сломается.
Уровень 2: Обычное лекарство
Пометка «Перед применением проконсультируйтесь с врачом» расположена на видном месте, но детали скрыты.
Как выглядит в продуктах:
- Поиск в Google: «Обзор от ИИ» с иконкой Gemini, по клику открывается предупреждение о возможных ошибках. 
- Контур.Толк: блок «Создано ИИ Контура» с иконкой, дисклеймер появляется при наведении на (i). 

Когда использовать: Поисковые системы, контент-платформы, средние риски. Пользователь видит, что контент создан ИИ, но подробности про риски — по запросу. Например, Обзор от ИИ Гугла может дать неточный ответ. Последствия? Пользователь загуглит по-другому.

Уровень 3: Рецептурный препарат
Крупная надпись «ОПАСНО. Может вызвать побочные эффекты. Беречь от детей» — сразу на упаковке, невозможно не заметить.
Как выглядит в продуктах:
- Чат-боты с LLM: под каждым ответом текст «ИИ может ошибаться, проверяйте информацию». 
- В интерфейсах, связанных с медициной и финансами показывают предупреждение о том, что сгенерированные результаты носят рекомендательный характер. 


Когда использовать: Высокие риски — оценка работы людей, медицина, финансы. Если ИИ ошибётся, последствия серьёзные. Нужно не только информировать, но и снять ответственность с компании. Дисклеймер должен быть виден всегда, без действий пользователя.
Например, в сфере найма есть кейсы, когда ИИ оценивает резюме, это влияет на карьеру людей. Или если нейросеть даёт рекомендации по инвестициям — в конечном итоге именно человек понесёт убытки и возьмёт риски на себя.
Уровень 4: Сертификат качества
Как защитная голограмма на упаковке — подтверждает подлинность.
Это не про интерфейс, речь идет о переносимых метках по стандарту C2PA — криптографически подписанные метаданные, встроенные в файл. Работает как «цифровая история происхождения» контента. Про это тоже есть хорошая статья на Хабре.
Как работает:
- В файл встраивается метка: кто создал, когда, какими инструментами, какие изменения вносились. 
- Метка сохраняется при копировании и экспорте. 
- Можно проверить через специальные инструменты. 
Примеры:
- ChatGPT (DALL-E 3): картинки содержат C2PA метаданные. 
- Adobe Firefly: встраивает метаданные при генерации. 
Когда использовать: Контент уходит за пределы платформы (новости, стоковые фото, медиа). Нужна защита от подделок и возможность проверить происхождение даже через месяцы.
Важно: В интерфейсе C2PA невидим пользователю. Это техническая защита, а не UX-элемент. Некоторые инструменты (например, Google SynthID) дополнительно встраивают водяные знаки прямо в пиксели — их сложнее удалить, чем метаданные.
Мой выбор: уровень 3
В моём продукте речевой аналитики две точки потенциальной ошибки:
- Речь могла быть распознана неточно. 
- LLM мог неправильно интерпретировать текст. 
Если ошибка случится, менеджер получит несправедливую оценку. Это конфликт, потеря доверия, проблемы для людей.
Поэтому я выбрала уровень 3, когда дисклеймер виден сразу рядом с анализом: «Искусственный интеллект может ошибаться или давать неточные результаты. Всегда проверяйте информацию».
Это не просто про прозрачность. Это про защиту обеих сторон: пользователь знает о рисках, компания не несёт ответственность за неизбежные ошибки модели.
Пограничные случаи
Некоторые продукты находятся на границе между уровнями. Пример: Яндекс Алиса в поисковой выдаче сразу показывает дисклеймер: «На основе источников, возможны неточности» рядом с иконкой. Хотя Google AI Overview (тоже поисковая система) использует уровень 2 с дисклеймером по клику, Яндекс выбрал уровень 3 — предупреждение видно сразу. И это оправдано, контекст использования может быть разным: условный поиск «рецепта борща» не равен запросу симптомов болезни в плане рисков. Формулировка предупреждения краткая и достаточно мягкая.
В Рerplexity все упоминания о том, что результаты носят рекомендательный характер спрятаны в документации. У меня есть предположение, что это связано с позиционированием продукта — быстрые и точные ответы (любой дисклеймер обесценивает это). Кроме того, в продукте выделяют ссылки на источники, чтобы мотивировать пользователя ознакомиться с ними самостоятельно. В Grok ситуация похожая. Илон Маск позиционирует этот инструмент как максимально правдивый ИИ без цензуры, поэтому в продукте избегают предупреждений, чтобы не «пугать» пользователей. Правда это обернулось скандалами и обвинениями.
Как выбрать свой уровень маркировки
| Уровень и видимость | Последствия ошибки | Примеры применения | 
|---|---|---|
| 1: Скрытые в меню, в документации | Без последствий | Развлекательный контент, рекомендации для развлечений (фильмы, музыка) | 
| 2: Видимая метка, детали по запросу | Снижение качества. Не влияет на важные решения | Поисковые системы, саммари статей | 
| 3: Отображается постоянно | Влияет на деньги, здоровье, работу или репутацию | Медицинские и финансовые решения, оценка персонала | 
| 4: Невидима для пользователей | +контент распространяется за пределами продукта | Стоковые библиотеки | 
Чтобы определить подходящий уровень для вашего продукта, ответьте на три вопроса:
- Оцените последствия ошибки ИИ. 
- Определите, насколько критично видимое предупреждение. 
- Проверьте, уходит ли контент за пределы продукта (опционально). 
Поделитесь, как вы решали подобные задачи в своих продуктах? Какой уровень маркировки выбрали?
Комментарии (4)
 - GDragon22.10.2025 10:37- Например, Обзор от ИИ Гугла может дать неточный ответ. Последствия? Пользователь загуглит по-другому. - Пользователь загуглит по другому если пользователь УЖЕ в курсе того о чем он гуглит и поймет что ответ неправильный. 
 Но нейросетка гугла, регулярно глючит и выдает ответы ПРЯМО противоположные своим же результатам поиска.
 А уж замечательные советы выпить уксуса при боли в горле, благо быстро пофиксили... - tatydor Автор22.10.2025 10:37- Согласна, пользователь продолжит гуглить только если понимает/подозревает, что ответ неверный. Но можно ли предусмотреть все риски и сценарии? Вспоминается легенда про кота, которого посушили в микроволновке, потому что в инструкции не было явного запрета. - С ИИ ситуация аналогичная или ещё сложнее + кроме очевидных рисков, есть проблемы локализации и культурных табу: что если на невинный запрос "что съесть на завтрак" ИИ порекомендует мусульманину яичницу с беконом? ) - Моя классификация — это попытка систематизировать подходы к маркировке исходя из рисков и последствий ошибок. Ваш комментарий показывает важный нюанс. Даже внутри одного продукта могут требоваться разные уровни маркировки в зависимости от типа запроса и контекста использования (звучит как дорого и сложно, но вдруг и до этого тоже доживём). 
 
 - Zippy22.10.2025 10:37- зависит от клиента - Одному можно впарить дороже потому кактут Ии - а это круто. - другой скажет - если тут контент от ИИ то чего я должен за это ва платить 
 
           
 
godfather
Вот такой способ.