Привет, Хабр! Я Андрей Яковлев, исследователь в области информационной безопасности. Работаю с корпоративными ИИ-сервисами и активно помогаю внедрять технологии искусственного интеллекта в продукты и сервисы Positive Technologies.

Я подготовил анализ политик использования наших с вами данных провайдерами LLM. Основную информацию для статьи я собирал в период с июля по август 2025 года. Материал основан на анализе официальных политик конфиденциальности, условий использования, технической документации и актуальных судебных решений. Особое внимание уделено критическим изменениям в политиках хранения данных, произошедшим в 2025 году, включая судебное решение по OpenAI и серьезные утечки данных в экосистеме AI.

Исследование охватывает западных вендоров (OpenAI, Anthropic, Google AI), российские решения (GigaChat, YandexGPT), китайского новичка (DeepSeek), а также провайдера‑агрегатора (OpenRouter) и редакторы кода с ИИ (Cursor, Windsurf, Copilot).

Анализ включает детальное сравнение политик для частного и корпоративного использования, документированные случаи утечек данных и их последствия, а также практические рекомендации по выбору решений в зависимости от требований к безопасности данных.

Данная статья выражает мнение автора и не является публичной позицией компании Positive Technologies.


Экосистема больших языковых моделей претерпела большие изменения в 2025 году, особенно в области политик обработки и хранения пользовательских данных. Критическим поворотным моментом стало судебное решение федерального суда США в мае 2025 года, обязавшее OpenAI сохранять все данные пользователей ChatGPT на неопределенный срок [1]. Это решение, принятое в рамках иска The New York Times по авторским правам, фундаментально изменило ландшафт конфиденциальности данных в сфере ИИ и заставило пользователей пересмотреть свои подходы к выбору LLM‑сервисов.

Параллельно с этим 2025 год ознаменовался серией значительных утечек данных, включая масштабную утечку в DeepSeek в январе, когда более 1 миллиона записей пользователей, включая историю чатов и API‑ключи, оказались в открытом доступе [2]. Эти инциденты подчеркивают критическую важность понимания политик использования данных различных вендоров и провайдеров.

Анализ основан на изучении официальных документов компаний, актуальных судебных решений, отчетов исследователей безопасности и независимых аудитов.

Данный материал основан на публично доступной информации и официальных заявлениях компаний. Политики могут изменяться без предварительного уведомления. Рекомендуется регулярно проверять актуальные условия использования.


Методология исследования

Исследование проводилось в период с июня по август 2025 года и включало следующие пункты.

  1. Анализ первичных источников: изучение официальных политик конфиденциальности, условий использования, технической документации API и корпоративных соглашений рассматриваемых вендоров и провайдеров.

  2. Мониторинг судебных решений: отслеживание судебных разбирательств, влияющих на политики хранения данных, включая дело The New York Times против OpenAI.

  3. Анализ инцидентов безопасности: изучение известных случаев утечек данных, случаев нарушений безопасности и их последствий для пользователей.

  4. Сравнительный анализ: сравнение политик различных вендоров по ключевым параметрам: хранение данных, использование для обучения моделей, передача данных третьим лицам, права пользователей на контроль данных и права пользователей на данные.

  5. Разделение по географическому признаку: статья направлена в первую очередь на корпоративных пользователей LLM, поэтому разделение по географии важно, точнее, важна юрисдикция сервиса, которым вы пользуетесь.

Западные вендоры

Вендоры LLM

OpenAI

OpenAI остается одним из наиболее влиятельных игроков на рынке LLM, однако политики компании в области обработки данных претерпели кардинальные изменения судебного решения в 2025.

Критическое изменение: судебное решение в мае 2025 года

Бессрочное хранение данных по решению суда

В мае 2025 года федеральный судья Она Ван (Ona Wang) вынесла беспрецедентное решение, обязывающее OpenAI сохранять все данные пользователей ChatGPT на неопределенный срок [1]. Решение было принято в рамках иска The New York Times и других медиа против OpenAI по вопросам нарушения авторских прав.

Согласно официальному заявлению OpenAI от 5 июня 2025 года, компания вынуждена «сохранять весь пользовательский контент на неопределенный срок, основываясь на предположениях» истцов о том, что они «могут найти что‑то, что поддержит их заявление» [3]. Это решение кардинально противоречит предыдущим политикам конфиденциальности OpenAI и создает серьезные риски для пользователей.

Кого затрагивает решение:

  • ChatGPT Free, Plus и Pro пользователей,

  • пользователей OpenAI API,

  • НЕ затрагивает: ChatGPT Enterprise, ChatGPT Edu, пользователей с соглашениями Zero Data Retention.

Технические детали реализации

OpenAI создала отдельную защищенную систему для хранения данных, подпадающих под судебное решение. Согласно FAQ компании, удаленные чаты пользователей теперь «хранятся отдельно в защищенной системе» и «защищены правовым удержанием, что означает, что к ним нельзя получить доступ или использовать их для целей, отличных от выполнения правовых обязательств» [1].

Доступ к этим данным имеет только «небольшая, проверенная команда юристов и безопасности OpenAI» для соблюдения правовых обязательств [1]. Однако компания не может гарантировать, как долго будет действовать это требование, поскольку решение остается в силе «до дальнейшего распоряжения суда» [4].

Конфликт с GDPR

Решение создает серьезный конфликт с Общим регламентом по защите данных (GDPR) Европейского союза, который предоставляет пользователям «право на забвение» [1]. OpenAI признала эту проблему, заявив, что компания «предпринимает шаги для соблюдения требований в настоящее время, поскольку необходимо следовать закону», но не смогла предоставить четких гарантий европейским пользователям [1].

Стандартные политики OpenAI (до судебного решения)

Использование через веб‑чат (ChatGPT)

До судебного решения OpenAI применяла следующие политики для ChatGPT:

  • хранение данных: 30 дней для целей безопасности и предотвращения злоупотреблений [5];

  • обучение на данных: по умолчанию ДА, но пользователи могут отключить через настройку «Улучшать модель для всех» [6];

  • передача третьим лицам: только в случаях, предусмотренных политикой конфиденциальности (правоохранительные органы, поставщики услуг) [7];

  • контроль пользователя: возможность отключения использования данных для обучения, удаления истории чатов [6];

  • права на контент: пользователи сохраняют права на свои входные данные, OpenAI получает права на использование для предоставления услуг [7].

Использование через API

Для API OpenAI традиционно применяла более строгие политики:

  • хранение данных: 30 дней для обнаружения злоупотреблений, затем автоматическое удаление [8];

  • обучение на данных: НЕТ по умолчанию для API данных [8];

  • Zero Data Retention (ZDR): доступно для квалифицированных организаций — данные не сохраняются вообще [9];

  • передача третьим лицам: минимальная, только в соответствии с соглашением API [8].

Корпоративные решения

ChatGPT Enterprise и ChatGPT Edu

Эти продукты остаются не затронутыми судебным решением и сохраняют усиленные гарантии конфиденциальности:

  • хранение данных: контролируется корпоративными соглашениями [10];

  • обучение на данных: НЕТ, данные не используются для обучения моделей [10];

  • изоляция данных: полная изоляция от потребительских сервисов [10];

  • соответствие стандартам: SOC 2 Type II, возможность аудита [10].

Anthropic

Anthropic позиционирует себя как компанию, ориентированную на безопасность ИИ, и это отражается в их политиках обработки данных.

Использование через веб-чат (Claude.ai)

Хранение и удаление данных

Anthropic применяет четкую политику автоматического удаления данных. Согласно официальной документации компании, все входные и выходные данные автоматически удаляются в течение 30 дней после удаления разговора [42]. Пользователи могут удалить разговоры немедленно через интерфейс, и такие разговоры «удаляются немедленно из вашей истории и автоматически из наших бэкенд‑систем в течение 30 дней» [42]. Но есть нюансы в случае нарушения политик использования, срок от 2-ух до 7-ми лет. Хранения данных. Или в случае отправки вами обратной связи, в том числе под сообщениями модели, данные обезличены, но хранятся до 10 лет [11].

Обучение на данных

Anthropic имеет одну из наиболее консервативных политик в отрасли относительно использования пользовательских данных для обучения. Компания четко заявляет: «Мы НЕ используем ваши разговоры с Claude для обучения наших моделей, если только вы не дадите нам явного разрешения» [12].

Исключения составляют только случаи нарушения политики использования или когда пользователь явно предоставляет разрешение на использование данных для улучшения сервиса [12].

Использование через API

Claude API и корпоративные продукты

Для API и корпоративных клиентов Anthropic предоставляет еще более строгие гарантии:

  • хранение данных: стандартное удаление через 30 дней, доступны соглашения Zero Data Retention [13];

  • обучение на данных: НЕТ, данные API никогда не используются для обучения [14];

  • изоляция: полная изоляция корпоративных данных от потребительских сервисов [13];

Инциденты безопасности

Утечка данных, январь 2024 года

В январе 2024 года Anthropic пережила утечку данных через подрядчика, хотя компания подчеркнула, что утечка касалась «неконфиденциальной информации о клиентах» и не включала содержание разговоров или персональные данные пользователей [15].

Google AI (Gemini)

Google применяет дифференцированный подход к политикам данных в зависимости от типа продукта и пользователя.

Gemini Apps (потребительская версия)

Хранение данных

Согласно официальному Privacy Hub Google, обновленному 11 июня 2025 года, данные пользователей Gemini Apps могут храниться до 18 месяцев [16]. Пользователи могут контролировать это через настройки активности Gemini Apps.

Обучение на данных

Google использует данные Gemini Apps для улучшения своих сервисов, включая обучение моделей, но предоставляет пользователям контроль через настройки персонализации [16]. Пользователи могут отключить использование своих данных для персонализации ответов.

Google Workspace (корпоративная версия)

Усиленная защита для корпоративных клиентов

Для клиентов Google Workspace действуют кардинально иные политики. Согласно официальной документации Google:

  • хранение данных: контролируется корпоративными соглашениями и политиками организации [17];

  • обучение на данных: Google «не использует данные Google Workspace клиентов для обучения моделей ИИ без явного согласия» [17];

  • изоляция: полная изоляция корпоративных данных от потребительских сервисов [17];

  • соответствие стандартам: соответствие GDPR, HIPAA и др. [17].

Провайдеры LLM

Провайдеры‑агрегаторы представляют отдельную категорию сервисов, предоставляющих доступ к множественным LLM через единый интерфейс. Их политики данных часто зависят от политик конечных вендоров моделей. Так сложилось, что единственный провайдер‑агрегатор, которого я затрагиваю в рамках обзора, лоцирован на Западе, поэтому, волею судеб, описание размещено в разделе «Западные вендоры». Важно понимать, что если вы обращаетесь к LLM через OpenRouter, то важны и условия OpenRouter, и условия конечного провайдера большой языковой модели. Стать провайдером на OpenRouter довольно просто [46].

OpenRouter

OpenRouter функционирует как агрегатор, предоставляющий доступ к десяткам различных LLM через единый API.

Модель ответственности

Ограниченный контроль над политиками

Согласно политике конфиденциальности OpenRouter, обновленной в апреле 2025 года, компания не контролирует политики использования данных конечных провайдеров моделей [36]. OpenRouter четко заявляет: «Мы не контролируем, используют ли LLM ваши данные для обучения моделей» [36]. Есть опция включения логирования, где предоставляя скидку в 1% [44], OpenRouter получает довольно широкие права на пользовательские данные, вплоть до «license or sell your User Content in anonymized form, where your User Content is not associated with you or your account» [45].

Рекомендации пользователям

OpenRouter предоставляет подробную таблицу всех доступных провайдеров [37] и правил их использования [43]. Пользователям рекомендуется самостоятельно изучать условия каждого провайдера перед использованием. И очевидное, не соглашайтесь на «opt‑in logging license» для любых чувствительных данных.

Собственные политики OpenRouter:

  • хранение данных: минимальное хранение данных для технических целей [36];

  • обучение на данных: OpenRouter не использует данные для собственного обучения [36];

  • передача данных: данные передаются только выбранным провайдерам моделей [36].

Инструменты для кодинга

Отдельная категория, которая сейчас растет громадными темпами и у всех на слуху, все инструменты вайбкодинга можно отнести к категории провайдеров-агрегаторов; хотя и есть, например, Composer от Cursor, который является их моделью [45], большей частью они предоставляют доступ к большим языковым моделям других вендоров, хоть здесь и нет частных хостеров.

Cursor

Cursor представляет собой AI‑редактор кода с интегрированными возможностями LLM и уникальным подходом к защите данных.

Privacy Mode

Гарантии отсутствия хранения

Cursor предлагает Privacy Mode с техническими гарантиями защиты данных. Согласно странице безопасности Cursor, обновленной 18 июня 2025 года:

  • отдельные реплики: для Privacy Mode используются отдельные реплики сервисов [38];

  • нулевое хранение: Гарантии того, что данные не сохраняются провайдерами [38];

  • техническая реализация: Специальные соглашения с провайдерами для обеспечения нулевого хранения [38].

Статистика использования

Более 50% пользователей Cursor используют Privacy Mode, что демонстрирует высокий спрос на защищенные решения [38].

Соответствие стандартам

  • SOC 2 Type II: Cursor имеет сертификацию SOC 2 Type II [38]

  • Регулярные аудиты: независимые аудиты безопасности [38]

  • Прозрачность: публичная документация по безопасности [38]

Windsurf (ранее Codeium)

Windsurf позиционирует себя как корпоративное решение для разработки с ИИ с акцентом на безопасность данных.

Zero Data Retention по умолчанию

Корпоративная модель

Согласно странице безопасности Windsurf от 11 марта 2025 года, компания применяет Zero Data Retention режим по умолчанию для всех команд и корпоративных планов [39]:

  • Нулевое хранение: данные не сохраняются на серверах Windsurf [39]

  • Обучение на данных: НЕТ, данные не используются для обучения [39]

  • Корпоративные клиенты: обслуживает компании из Fortune 500 в регулируемых отраслях [39]

Варианты развертывания

Гибкие модели развертывания

  • Cloud: Стандартное облачное развертывание с Zero Data Retention [39]

  • Hybrid: Гибридная модель с локальной обработкой критических данных [39]

  • Self‑hosted: Полностью локальное развертывание для максимальной безопасности, на данный момент не поставляется [39]

GitHub Copilot

GitHub Copilot представляет собой расширения для VS Code и JetBrains IDE, интегрированное в экосистему GitHub.

Различия между версиями продукта

GitHub Copilot Individual (Free/Personal)

  • Хранение данных: промпты и код сохраняются для улучшения сервиса [18]

  • Обучение на данных: ДА, данные используются для обучения и улучшения моделей, отключаемо [18]

  • Передача третьим лицам: в соответствии с политикой GitHub [18]

GitHub Copilot Business/Enterprise

Корпоративные версии имеют кардинально иные политики:

  • хранение данных: зависит от способа доступа — для доступа через IDE код НЕ сохраняется, для других способов доступа данные сохраняются на 28 дней [19];

  • обучение на данных: НЕТ, корпоративные данные не используются для обучения [19];

  • изоляция: полная изоляция от потребительских сервисов [19].

Проблемы безопасности 2025 года

Критические уязвимости

2025 год выявил серьезные проблемы безопасности в экосистеме GitHub Copilot:

  1. Утечка приватных репозиториев: Более 20,000 приватных GitHub репозиториев стали доступны через кэш поисковой системы Bing [20]

  2. Утечка секретов: Исследования показали, что до 6.4% репозиториев, использующих Copilot, содержат утечки секретов (API‑ключи, пароли, токены) [21]

  3. Новые векторы атак: Исследователи безопасности обнаружили возможности использования Copilot для внедрения вредоносного кода через скомпрометированные файлы правил [22]

Российские вендоры

GigaChat, как и YandexGPT, представляют собой полностью локализованное в России решение, разработанное с учетом требований российского законодательства.

GigaChat и YandexGPT полностью соответствуют требованиям Федерального закона № 152-ФЗ «О персональных данных» [24 п. 8.12] [25].

GigaChat

Российское решение от крупнейшего банка примечательно отсутствием зарегистрированных инцидентов с безопасностью.

Политики использования данных

Для физических лиц

Согласно соглашению об использовании GigaChat для физических лиц:

  • хранение данных: данные диалогов хранятся для обеспечения функционирования сервиса [24];

  • обучение на данных: Сбербанк оставляет за собой право использовать данные для улучшения сервиса [24];

  • передача третьим лицам: только в случаях, предусмотренных российским законодательством [24];

  • права пользователей: в соответствии с 152-ФЗ — право на доступ, изменение и удаление персональных данных [26].

Корпоративные планы. Для корпоративных клиентов Сбербанк предлагает гарантии:

  • расширенные права на сгенерированный контент: разрешено использование в коммерческих целях [27];

  • аудит и соответствие: соответствие требованиям регулируемых отраслей [27];

  • общая политика для физлиц и юрлиц: Сбер получает достаточно широкие права на пользовательский контент, но исключительно для целей предоставления cервиса, но не раскрывается подробно, что входит в цели предоставления сервиса [27].

YandexGPT

YandexGPT интегрирован в экосистему сервисов Яндекса и наследует политики обработки данных материнской компании.

Политики использования данных

Широкие права на использование

Согласно условиям использования YandexGPT, Яндекс получает обширные права на пользовательские данные:

  • хранение данных: данные могут храниться в течение всего периода использования сервиса [28];

  • обучение на данных: Яндекс имеет право использовать пользовательские данные для обучения и улучшения моделей [28];

  • передача в рамках экосистемы: данные могут использоваться в других сервисах Яндекса [28];

  • коммерческое использование: широкие права на коммерческое использование данных [28];

  • права пользователей: в соответствии с 152-ФЗ — право на доступ, изменение и удаление персональных данных [25].

Инциденты безопасности

Утечка исходного кода, январь 2023 года

В январе 2023 года произошла масштабная утечка 45 ГБ исходного кода Яндекса, включая алгоритмы ИИ‑ассистента [29]. Утечка включала:

  • алгоритмы ранжирования поиска,

  • код систем машинного обучения,

  • внутренние API и документацию,

  • алгоритмы персонализации и таргетинга рекламы [29].

Хотя утечка не включала пользовательские данные напрямую, она раскрыла внутренние механизмы обработки данных компании [30].

Китайские вендоры

DeepSeek

DeepSeek позиционирует себя как открытая альтернатива западным LLM, однако 2025 год выявил серьезные проблемы с безопасностью данных.

Критическая утечка данных, январь 2025 года

Масштаб инцидента

В январе 2025 года исследователи компании Wiz обнаружили публично доступную базу данных ClickHouse DeepSeek без защиты паролем, содержащую более 1 миллиона записей [2]. Утечка включала:

  • полную историю чатов пользователей,

  • API‑ключи и токены доступа,

  • внутренние логи системы,

  • метаданные пользователей [2].

Техническая реализация утечки

База данных была доступна через открытый порт без аутентификации в течение нескольких дней. Исследователи Wiz смогли получить доступ к данным, используя стандартные инструменты подключения к ClickHouse [2].

Регуляторные проблемы

Блокировка в Германии

В июне 2025 года DeepSeek столкнулся с угрозой исключения из App Store и Google Play в Германии из‑за нарушений GDPR [35]. Немецкие регуляторы выявили проблемы с:

  • отсутствием явного согласия на обработку данных,

  • неясными политиками трансграничной передачи данных,

  • недостаточными гарантиями защиты данных европейских пользователей [35].

Блокировка в Южной Корее

В феврале 2025 года Южная Корея обвинила DeepSeek в передаче данных пользователей ByteDance, после чего приложение было удалено из магазинов. [32]

Политики использования данных

Открытое использование для обучения

DeepSeek открыто заявляет об использовании пользовательских данных для обучения и улучшения моделей. Согласно политике конфиденциальности компании допустимы:

  • хранение данных: данные хранятся на серверах в Китае [33];

  • обучение на данных: ДА, данные используются для обучения и улучшения моделей [33];

  • передача третьим лицам: в соответствии с китайским законодательством [33];

  • трансграничная передача: данные могут передаваться без уведомления пользователей [34].

Сравнительный анализ и рекомендации

Сравнительная таблица основных характеристик

Вендор/Провайдер

Хранение данных

Обучение на данных

Корпоративные гарантии

Инциденты 2025

OpenAI ChatGPT

⚠️ Бессрочно (суд)

⚠️ По умолчанию

✅ ZDR доступен

Судебное решение

OpenAI API

⚠️ Бессрочно (суд)

✅ Нет

✅ ZDR доступен

Судебное решение

Anthropic Claude

30 дней после удаления

✅ Нет

✅ ZDR доступен

Утечка 2024

Anthropic Claude API

✅ Не хранит

✅ Нет

✅ ZDR по умолчанию

Утечка 2024

Google Gemini

18 месяцев

⚠️ По умолчанию

✅ Workspace защищен

-

Google Workspace

✅ Не используется

✅ Нет

✅ Полная защита

-

GitHub Copilot

28 дней

❌ Individual

✅ Business защищен

Утечки репозиториев

GigaChat

Данные хранятся

⚠️ Может использовать

⚠️ Одинаково для физ и юр лиц

-

GigaChat API

⚠️ Косвенно из документации

⚠️ Прямо не указано

⚠️ Одинаково для физ и юр лиц

-

YandexGPT

Весь период

⚠️ По умолчанию Да

⚠️ Широкие права на данные

Утечка кода 2023

YandexGPT API

⚠️ Опционально

⚠️ Только при логировании

✅ Отключение логирования

Утечка кода 2023

DeepSeek

Не указано

❌ Да

❌ Нет гарантий

Утечка 1M записей

OpenRouter

Минимальное

✅ Нет

⚠️ Зависит от провайдера

-

Cursor

✅ Privacy Mode

✅ Privacy Mode

✅ Privacy mode

-

Windsurf

✅ ZDR по умолчанию

✅ Нет

✅ Отдельные ZDR

-

Практические рекомендации

Для частного использования

Максимальная конфиденциальность

  1. Anthropic Claude — лучший баланс функциональности и конфиденциальности

  2. Cursor Privacy Mode — для разработчиков

  3. Windsurf — альтернатива для разработки

Избегать

  • DeepSeek (утечки данных)

  • OpenAI ChatGPT (из‑за судебного решения)

  • OpenRouter с включенным логированием

Для корпоративного использования

Российские компании

  1. YandexGPT API с выключенным логированием — соответствие 152-ФЗ, stateless inference [40] [41]

  2. GigaChat корпоративный — соответствие 152-ФЗ

  3. Self‑hosted решения во внутреннем контуре — для критических данных

Рекомендуемые решения для иностранных компаний:

  1. OpenAI Enterprise/API с ZDR — при необходимости доступа к моделям OpenAI

  2. Anthropic Claude API — сбалансированное решение

  3. Google Workspace — для интеграции с Google экосистемой

Заключение

Анализ политик использования данных LLM-вендоров и провайдеров в 2025 году выявляет кардинальные изменения в ландшафте конфиденциальности данных. Судебное решение по OpenAI стало переломным моментом, демонстрирующим, как правовые процессы могут мгновенно изменить политики конфиденциальности даже крупнейших технологических компаний.

Суммирую ключевые выводы исследования.

  1. Правовые риски реальны: судебное решение по OpenAI показывает, что политики конфиденциальности могут быть отменены судебными решениями без предварительного уведомления пользователей.

  2. Корпоративные продукты более защищены: практически все вендоры предоставляют значительно лучшие гарантии конфиденциальности для корпоративных клиентов.

  3. Провайдеры‑агрегаторы предлагают альтернативы: Cursor и Windsurf демонстрируют, что возможны технические решения для обеспечения конфиденциальности даже при использовании внешних LLM.

  4. Утечки данных участились: 2025 год характеризуется увеличением числа и масштаба утечек данных в экосистеме ИИ.

  5. Географическая юрисдикция имеет значение: российские, китайские и западные решения подчиняются различным правовым режимам, что создает дополнительные риски для международных пользователей.

Рекомендуется регулярно пересматривать выбор LLM‑сервисов в свете изменяющихся политик и правовых требований, а также рассматривать использование корпоративных продуктов или провайдеров с гарантиями конфиденциальности для критически важных данных.


Источники

[1] Ars Technica. «OpenAI confronts user panic over court‑ordered retention of ChatGPT logs.» 6 июня 2025. https://arstechnica.com/tech‑policy/2025/06/openai‑confronts‑user‑panic‑over‑court‑ordered‑retention‑of‑chatgpt‑logs/

[2] Wiz. DeepSeek Data Leak. https://www.wiz.io/blog/wiz‑research‑uncovers‑exposed‑deepseek‑database‑leak

[3] OpenAI. «Response to NYT Data Demands.» 5 июня 2025. https://openai.com/index/response‑to‑nyt‑data‑demands/

[4] PYMNTS. «OpenAI Appeals Court Order Requiring Retention of Consumer Data.» 18 июня 2025. https://www.pymnts.com/artificial‑intelligence-2/2025/openai‑appeals‑court‑order‑requiring‑retention‑of‑consumer‑data/

[5] OpenAI. «Privacy Policy.» Обновлено 27 июня 2025. https://openai.com/policies/row‑privacy‑policy/

[6] OpenAI. “How your data is used to improve model performance.” https://help.openai.com/en/articles/5722486-how‑your‑data‑is‑used‑to‑improve‑model‑performance

[7] OpenAI. “Terms of Use.” https://openai.com/policies/row‑terms‑of‑use/

[8] OpenAI. “API Data Usage Policies.” https://openai.com/policies/api‑data‑usage‑policies/

[9] OpenAI. “Zero Data Retention.” https://openai.com/enterprise‑privacy/

[10] OpenAI. “ChatGPT Enterprise Privacy and Security.” https://openai.com/chatgpt/enterprise/

[11] Anthropic. “How do you use personal data in model training?” https://privacy.anthropic.com/en/articles/10023555-how‑do‑you‑use‑personal‑data‑in‑model‑training

[12] Anthropic. “Privacy Policy.” https://www.anthropic.com/privacy

[13] Anthropic “Claude for Business”. https://www.anthropic.com/enterprise

[14] Anthropic. “Claude Code Data Usage.” https://docs.anthropic.com/en/docs/claude‑code/data‑usage

[15] Venturebeat. Anthropic data breach contractor. https://venturebeat.com/ai/anthropic‑confirms‑it‑suffered‑a-data‑leak/

[16] Google. «Gemini Apps Privacy Hub.» Обновлено 11 июня 2025. https://support.google.com/gemini/answer/13594961?hl=en

[17] Google. «How Gemini for Google Workspace protects your data.» Март 2025. https://support.google.com/a/answer/15706919?hl=en

[18] Github. “GitHub Copilot Trust Center.” https://copilot.github.trust.page/

[19] GitHub. “GitHub Copilot Business Privacy Statement.” https://docs.github.com/en/site‑policy/privacy‑policies/github‑copilot‑business‑privacy‑statement

[20] Techcrunch. GitHub Private Repos Exposed via Bing Cache. https://techcrunch.com/2025/02/26/thousands‑of‑exposed‑github‑repositories‑now‑private‑can‑still‑be‑accessed‑through‑copilot/

[21] GitGuardian. “State of Secrets Sprawl 2025.” https://www.gitguardian.com/state‑of‑secrets‑sprawl‑report-2025

[22] GitGuardian. “GitHub Security Issues.” https://blog.gitguardian.com/github‑copilot‑security‑and‑privacy/

[23] Сбер. «Политика обработки персональных данных.» https://www.sberbank.ru/privacy/policy

[24] Сбер. «GigaChat Соглашение для физических лиц.» https://developers.sber.ru/docs/ru/policies/gigachat‑agreement/individuals

[25] Yandex Cloud. «Преимущества работы с платформой Yandex Cloud» https://yandex.cloud/ru/services/yandexgpt

[26] Сбер. «How SberBank processes your data and why.» https://www.sberbank.ru/en/individualclients/privacy_policy

[27] Сбер. «GigaChat для бизнеса.» https://developers.sber.ru/docs/ru/policies/gigachat‑agreement/corporate‑clients‑beta

[28] Яндекс. «Условия использования YandexGPT.» https://yandex.ru/legal/yagpt_termsofuse/index.html

[29] Wired. “Yandex source code leak.” https://www.wired.com/story/yandex‑leaks‑crypta‑ads/

[30] Confinant. “Yandex leak confirmation.” https://www.confiant.com/news/the‑yandex‑leak‑how‑a-russian‑search‑giant‑uses‑consumer‑data

[31] BBC. “DeepSeek shared user data with TikTok owner ByteDance” https://www.bbc.com/news/articles/c4gex0×87g4o

[32] DeepSeek. «Privacy Policy.» 14 февраля 2025. https://cdn.deepseek.com/policies/en‑US/deepseek‑privacy‑policy-2025-02-14.html

[33] DeepSeek. “Terms of Service”. https://cdn.deepseek.com/policies/en‑US/deepseek‑terms‑of‑use.html

[34] Reuters. “DeepSeek Germany app stores ban.” https://www.reuters.com/sustainability/boards‑policy‑regulation/deepseek‑faces‑expulsion‑app‑stores‑germany-2025-06-27/

[35] OpenRouter. «Privacy Policy.» Апрель 2025. https://openrouter.ai/privacy

[36] OpenRouter. “Model Providers.” https://openrouter.ai/models

[37] Cursor. «Security.» Обновлено 18 июня 2025. https://cursor.com/security

[38] Windsurf. «Security.» 11 марта 2025. https://windsurf.com/security

[39] Yandex Cloud. «Аспекты безопасности данных в Yandex Foundation Models.» https://storage.yandexcloud.net/cloud‑www‑assets/security‑new/aspects‑of‑data‑security‑in‑yandex‑foundation‑models.pdf

[40] Yandex Cloud. «Безопасность Yandex Cloud.» https://yandex.cloud/ru/security

[41] Anthropic. “How long do you store my data?” https://privacy.anthropic.com/en/articles/10023548-how‑long‑do‑you‑store‑my‑data

[42] Openrouter. “Terms of Service.” https://openrouter.ai/docs/features/provider‑routing#terms‑of‑service

[43] Openrouter. “Privacy and Data Logging” https://openrouter.ai/docs/faq#what‑data‑is‑logged‑during‑api‑use

[44] Openrouter. “Opt‑In License for Prompt Logging” https://openrouter.ai/terms#5_2-opt‑in‑license‑for‑prompt‑logging

[45] Cursor. "Composer: Building a fast frontier model with RL" https://cursor.com/blog/composer

[46] Openrouter. "Provider Integration" https://openrouter.ai/docs/guides/guides/for-providers

Комментарии (1)


  1. lotta
    07.12.2025 21:48

    Спасибо автору. Кто бы сомневался, как говорится. Интересно такую подборку про функции ллмок, что подо что лучше заточено — что под тексты, а что под генерацию картинок, что для кода.