Дивный новый мир — искусственный интеллект сейчас встраивают практически во все бизнес-процессы, нейронки генерируют код, тексты и картинки, и это не говоря о роботах на производстве, которые с каждым годом становятся умнее. Это было бы прекрасно, если бы плодами технологического прогресса в равной степени не пользовались злоумышленники.
Привет, Хабр! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и СЕО онлайн-университета «Зерокодер». Обычно я пишу о том, что нейросети — это круто, но было бы нечестно не говорить и об обратной стороне монеты. Сегодня я хочу порассуждать о том, как нечистые на руки люди могут использовать ИИ для манипуляции с данными, и о том, какие способы защиты от потенциальных уязвимостей я смог выделить.
Если есть что добавить — пишите в комменты!
ИИ и корпоративные данные
Искусственный интеллект всерьез встряхнул подход к работе с корпоративными данными. Все ускоряется: появляются распределенные вычисления, растет число источников данных, множатся форматы и усложняются модели. Архитектура, которая еще пару лет назад казалась надежной, сегодня начинает скрипеть под новой нагрузкой.
По словам Бена Янга, технического директора Veeam по полевым решениям в Азиатско-Тихоокеанском регионе, текущие изменения требуют не косметического ремонта, а полного переосмысления стратегий резервного копирования и защиты данных.
«ИИ радикально меняет то, как компании работают с данными, — говорит Янг. — Но при этом многие забывают задать себе два простых вопроса: создаются ли резервные копии этих данных? И если да — насколько они защищены?»
Фундамент шатается
Работая с ИИ-сервисами, все чаще замечаю один и тот же паттерн: компании инвестируют в «обложку» — умные интерфейсы, чат-ботов, автоматизацию. А под капотом, тем временем, обнаруживаются дыры. Системы хранения и защиты данных либо устарели, либо не адаптированы под новые вызовы.
Это как строить небоскреб без фундамента: визуально впечатляет, но до первого сбоя.
Согласно отчету Veeam «Ransomware Trends and Proactive Strategies 2025», 90% компаний в мире столкнулись с попытками взлома хранилищ резервных копий за последний год. И это — не гипотеза, а реальность. Просто делать бэкапы уже недостаточно. Неизменяемость и защищенность копий становятся стандартом, а не «доп. опцией».
В эпоху, где один час простоя может стоить миллионы, восстановление должно быть не «если», а «когда и как быстро».
Облако ≠ защита
Все больше компаний уносят обучение моделей в публичные облака. Казалось бы, инфраструктура as-a-service — и можно выдохнуть. Но, как подсказывает практика, это ложное чувство безопасности.
Янг подчеркивает: без зрелой стратегии защиты данных в облаке вы не защищены вовсе. И дело не только в хакерах. Иногда фатальные потери данных происходят из-за банальной ошибки в конфигурации или сбоя API.
Я видел подобное лично: перспективный ИИ-стартап, отличные модели, красивые дашборды — и внезапно потеря данных из-за сбоя в облаке. Без резервной стратегии. Без шансов.
И вот тут становится очевидно: облако — это не «все включено». Ответственность за сохранность — на вас.
Защищенность ИИ — это не опция, а необходимость
ИИ захватывает бизнес-сцену, но вместе с этим поднимает и планку рисков. По данным IBM, средняя стоимость утечки данных в 2024 году превысила $4,88 млн. Ирония в том, что 94% бизнес-лидеров уже осознают важность кибербезопасности в ИИ-проектах, но лишь 24% планируют делать что-то с этим в ближайшие шесть месяцев. Разрыв между пониманием и действиями — это потенциальный инцидент в будущем.
«ИИ нельзя воспринимать как коробку с магией, которая “просто работает”, — подчеркивает Скотт МакКарти, глобальный партнер IBM по вопросам кибербезопасности. — Без понятной архитектуры защиты вы оставляете модели и данные без присмотра. А это приглашение для атак».
Современные угрозы уже не ограничиваются фишингом или шифровальщиками. Под прицелом — сами алгоритмы:
data poisoning — когда в обучающую выборку внедряются вредоносные данные;
model inversion и взлом моделей — когда злоумышленник получает доступ к внутренним параметрам модели или восстанавливает исходные данные.
Это сценарии не из фантастики, а уже реальность для тех, кто использует ИИ без продуманной стратегии защиты.
Три шага к здравому смыслу
IBM предлагает начать не с закупки софта, а с банальной инвентаризации и здравого смысла. Вот три базовых шага, которые могут сделать ИИ-системы менее уязвимыми.
Понять, где находятся данные. Без этого не будет ни мониторинга, ни защиты. В эпоху «теневого IT» (когда отделы подключают решения без ведома отдела информационной безопасности) это критически важно.
Классифицировать данные. Не вся информация требует одинакового уровня защиты. Публичный пресс-релиз ≠ обучающие данные для модели, извлеченные из CRM.
Ограничить доступ по принципу минимально необходимого. Кто должен видеть данные — тот и видит. Остальные — нет. И точка.
Ну и старые добрые практики: многофакторная аутентификация, регулярный аудит прав доступа и кибергигиена персонала, в том числе ИИ-команд.
Звучит скучно? Возможно. Но именно на этом держится устойчивость.
Этика и прозрачность: без них доверия не будет
Алгоритмы ИИ работают с личными данными, формируют решения, влияют на жизнь людей. И делают это не всегда прозрачно. С одной стороны — рост требований: от GDPR до региональных законов Азии, пока, впрочем, малоактуальных для России. С другой — у бизнеса часто нет ни процессов, ни инфраструктуры, чтобы соответствовать этим стандартам.
Примеры из практики:
ИИ-платформы, которые автоматически анализируют поведение пользователей без уведомлений;
модели подбора персонала, усиливающие гендерную или расовую предвзятость;
нейросети, чьи решения не могут объяснить даже их разработчики.
Решения, которые помогут:
внедрение privacy-by-design на этапе проектирования;
прозрачные пользовательские соглашения и уведомления;
периодический аудит и контроль доступа к данным;
explainable AI — чтобы не было «черных ящиков», особенно в критических решениях.
ИИ как инструмент киберустойчивости
Но давайте не будем демонизировать ИИ. Он не только источник новых рисков — он же и средство их минимизации.
Дэвид Эллотт, главный CISO Veeam в APJ, отмечает: ИИ уже сейчас помогает перейти от «тушения пожаров» к проактивной защите.
«ИИ может быть не только угрозой, но и частью решения. Он помогает нам понять, что именно мы защищаем, где это хранится и какие уязвимости скрыты в инфраструктуре», — говорит Эллотт.
Особенно это важно в гибридных или устаревших ИТ-ландшафтах, где человек уже не справляется с масштабом. ИИ-платформы вроде VeeamONE и Recon Scanner позволяют обнаруживать аномалии в реальном времени, отслеживать конфигурационные риски и строить резервные стратегии на основе реальной ценности данных.
Кроме того, ИИ сегодня — это и предсказательная аналитика: алгоритмы могут заранее предупредить команду о потенциальной атаке, задолго до того, как что-то пойдет не так.
Система, которой нужно доверять
ИИ способен трансформировать индустрии — от медицины до логистики. Но эта трансформация невозможна без доверия. А доверие начинается с прозрачности, честного подхода к защите данных и готовности включить безопасность не «потом», а сейчас.
Иначе вы строите систему на песке. И очень скоро она может утонуть.
ИИ действительно меняет правила игры — и для бизнеса, и для злоумышленников. Мы создаем мощные модели, автоматизируем процессы, обучаем нейросети решать задачи, которые еще недавно казались исключительно «человеческими». Но вместе с этим растут и риски: от утечек до подмены данных и манипуляций с поведением моделей.
И если вы уже используете ИИ или только собираетесь — не игнорируйте фундамент. Никакая инновация не спасет, если вы не знаете, где хранятся ваши данные, кто к ним имеет доступ, и как вы будете восстанавливаться, если что-то пойдет не так.
ИИ — это не магия. Это инструмент. И чем он мощнее, тем больше внимания требует к архитектуре, безопасности и этике. А значит, сегодня защита данных — это не затраты, а условие существования. И лучше подумать об этом до первого инцидента, а не после.
Что скажешь, Хабр? Как еще можно уберечь свои личные и рабочие данные в век нейросетей?
Комментарии (7)

Andrey_Gromov
28.10.2025 07:35Статья поднимает критически важную тему, которая часто остается в тени при разговорах об ИИ — защита данных как фундамент, а не опциональный слой. Полностью согласен с тезисом о "небоскребе без фундамента": когда компании внедряют ИИ-сервисы, автоматизируют процессы и генерируют контент через нейросети, архитектура безопасности действительно часто отстает.
Особенно цепляет пример с облаком как источником ложного чувства безопасности. В практике видел ровно то же самое: стартапы и даже крупные компании перемещают обучающие данные в облако, внедряют GPT-интеграции и останавливаются на этапе "облако = защита". А потом следует конфигурационная ошибка, потеря ключей доступа, и месяцы работы испаряются за несколько часов.

alexandr93
28.10.2025 07:35А потом компания разворачивает все на своём железе и думает, что в безопасности, а тулы для использования локальных ЛЛМ шпионят даже с выставленными галочками "не шпионить")) https://github.com/continuedev/continue/issues/2082
Ekaterina_yrist
ИП и небольшие компании,к сожалению,даже не думают о защите своих данных. Им нужно время либо негативный опыт,чтобы придти к этому
kpshinnik Автор
Боюсь, что вы правы — убедился на практике коллег. Каждый второй стартап задумывается о безопасности, только когда ей начинает что-то угрожать или когда уже поздно.
Shaman_RSHU
Да и у более крупных компаний просто есть ресурсы на разработку презентаций, в которых все безопасно и защищено. Но на практике также сталкиваются с негативным опытом потому что те, кто заявляет что всё хорошо и те, кто на практике реализовывает - разные люди