Дивный новый мир — искусственный интеллект сейчас встраивают практически во все бизнес-процессы, нейронки генерируют код, тексты и картинки, и это не говоря о роботах на производстве, которые с каждым годом становятся умнее. Это было бы прекрасно, если бы плодами технологического прогресса в равной степени не пользовались злоумышленники. 

Привет, Хабр! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и СЕО онлайн-университета «Зерокодер». Обычно я пишу о том, что нейросети — это круто, но было бы нечестно не говорить и об обратной стороне монеты. Сегодня я хочу порассуждать о том, как нечистые на руки люди могут использовать ИИ для манипуляции с данными, и о том, какие способы защиты от потенциальных уязвимостей я смог выделить.

Если есть что добавить — пишите в комменты! 

ИИ и корпоративные данные

Искусственный интеллект всерьез встряхнул подход к работе с корпоративными данными. Все ускоряется: появляются распределенные вычисления, растет число источников данных, множатся форматы и усложняются модели. Архитектура, которая еще пару лет назад казалась надежной, сегодня начинает скрипеть под новой нагрузкой.

По словам Бена Янга, технического директора Veeam по полевым решениям в Азиатско-Тихоокеанском регионе, текущие изменения требуют не косметического ремонта, а полного переосмысления стратегий резервного копирования и защиты данных.

«ИИ радикально меняет то, как компании работают с данными, — говорит Янг. — Но при этом многие забывают задать себе два простых вопроса: создаются ли резервные копии этих данных? И если да — насколько они защищены?»

Фундамент шатается

Работая с ИИ-сервисами, все чаще замечаю один и тот же паттерн: компании инвестируют в «обложку» — умные интерфейсы, чат-ботов, автоматизацию. А под капотом, тем временем, обнаруживаются дыры. Системы хранения и защиты данных либо устарели, либо не адаптированы под новые вызовы.

Это как строить небоскреб без фундамента: визуально впечатляет, но до первого сбоя.

Согласно отчету Veeam «Ransomware Trends and Proactive Strategies 2025», 90% компаний в мире столкнулись с попытками взлома хранилищ резервных копий за последний год. И это — не гипотеза, а реальность. Просто делать бэкапы уже недостаточно. Неизменяемость и защищенность копий становятся стандартом, а не «доп. опцией».

В эпоху, где один час простоя может стоить миллионы, восстановление должно быть не «если», а «когда и как быстро».

Облако ≠ защита

Все больше компаний уносят обучение моделей в публичные облака. Казалось бы, инфраструктура as-a-service — и можно выдохнуть. Но, как подсказывает практика, это ложное чувство безопасности.

Янг подчеркивает: без зрелой стратегии защиты данных в облаке вы не защищены вовсе. И дело не только в хакерах. Иногда фатальные потери данных происходят из-за банальной ошибки в конфигурации или сбоя API.

Я видел подобное лично: перспективный ИИ-стартап, отличные модели, красивые дашборды — и внезапно потеря данных из-за сбоя в облаке. Без резервной стратегии. Без шансов.

И вот тут становится очевидно: облако — это не «все включено». Ответственность за сохранность — на вас.

Защищенность ИИ — это не опция, а необходимость

ИИ захватывает бизнес-сцену, но вместе с этим поднимает и планку рисков. По данным IBM, средняя стоимость утечки данных в 2024 году превысила $4,88 млн. Ирония в том, что 94% бизнес-лидеров уже осознают важность кибербезопасности в ИИ-проектах, но лишь 24% планируют делать что-то с этим в ближайшие шесть месяцев. Разрыв между пониманием и действиями — это потенциальный инцидент в будущем.

«ИИ нельзя воспринимать как коробку с магией, которая “просто работает”, — подчеркивает Скотт МакКарти, глобальный партнер IBM по вопросам кибербезопасности. — Без понятной архитектуры защиты вы оставляете модели и данные без присмотра. А это приглашение для атак».

Современные угрозы уже не ограничиваются фишингом или шифровальщиками. Под прицелом — сами алгоритмы:

  • data poisoning — когда в обучающую выборку внедряются вредоносные данные;

  • model inversion и взлом моделей — когда злоумышленник получает доступ к внутренним параметрам модели или восстанавливает исходные данные.

Это сценарии не из фантастики, а уже реальность для тех, кто использует ИИ без продуманной стратегии защиты.

Три шага к здравому смыслу

IBM предлагает начать не с закупки софта, а с банальной инвентаризации и здравого смысла. Вот три базовых шага, которые могут сделать ИИ-системы менее уязвимыми.

  1. Понять, где находятся данные. Без этого не будет ни мониторинга, ни защиты. В эпоху «теневого IT» (когда отделы подключают решения без ведома отдела информационной безопасности) это критически важно.

  2. Классифицировать данные. Не вся информация требует одинакового уровня защиты. Публичный пресс-релиз ≠ обучающие данные для модели, извлеченные из CRM.

  3. Ограничить доступ по принципу минимально необходимого. Кто должен видеть данные — тот и видит. Остальные — нет. И точка.

Ну и старые добрые практики: многофакторная аутентификация, регулярный аудит прав доступа и кибергигиена персонала, в том числе ИИ-команд.

Звучит скучно? Возможно. Но именно на этом держится устойчивость.

Этика и прозрачность: без них доверия не будет

Алгоритмы ИИ работают с личными данными, формируют решения, влияют на жизнь людей. И делают это не всегда прозрачно. С одной стороны — рост требований: от GDPR до региональных законов Азии, пока, впрочем, малоактуальных для России. С другой — у бизнеса часто нет ни процессов, ни инфраструктуры, чтобы соответствовать этим стандартам.

Примеры из практики:

  • ИИ-платформы, которые автоматически анализируют поведение пользователей без уведомлений;

  • модели подбора персонала, усиливающие гендерную или расовую предвзятость;

  • нейросети, чьи решения не могут объяснить даже их разработчики.

Решения, которые помогут:

  • внедрение privacy-by-design на этапе проектирования;

  • прозрачные пользовательские соглашения и уведомления;

  • периодический аудит и контроль доступа к данным;

  • explainable AI — чтобы не было «черных ящиков», особенно в критических решениях.

ИИ как инструмент киберустойчивости

Но давайте не будем демонизировать ИИ. Он не только источник новых рисков — он же и средство их минимизации.

Дэвид Эллотт, главный CISO Veeam в APJ, отмечает: ИИ уже сейчас помогает перейти от «тушения пожаров» к проактивной защите.

«ИИ может быть не только угрозой, но и частью решения. Он помогает нам понять, что именно мы защищаем, где это хранится и какие уязвимости скрыты в инфраструктуре», — говорит Эллотт.

Особенно это важно в гибридных или устаревших ИТ-ландшафтах, где человек уже не справляется с масштабом. ИИ-платформы вроде VeeamONE и Recon Scanner позволяют обнаруживать аномалии в реальном времени, отслеживать конфигурационные риски и строить резервные стратегии на основе реальной ценности данных.

Кроме того, ИИ сегодня — это и предсказательная аналитика: алгоритмы могут заранее предупредить команду о потенциальной атаке, задолго до того, как что-то пойдет не так.

Система, которой нужно доверять

ИИ способен трансформировать индустрии — от медицины до логистики. Но эта трансформация невозможна без доверия. А доверие начинается с прозрачности, честного подхода к защите данных и готовности включить безопасность не «потом», а сейчас.

Иначе вы строите систему на песке. И очень скоро она может утонуть.

ИИ действительно меняет правила игры — и для бизнеса, и для злоумышленников. Мы создаем мощные модели, автоматизируем процессы, обучаем нейросети решать задачи, которые еще недавно казались исключительно «человеческими». Но вместе с этим растут и риски: от утечек до подмены данных и манипуляций с поведением моделей.

И если вы уже используете ИИ или только собираетесь — не игнорируйте фундамент. Никакая инновация не спасет, если вы не знаете, где хранятся ваши данные, кто к ним имеет доступ, и как вы будете восстанавливаться, если что-то пойдет не так.

ИИ — это не магия. Это инструмент. И чем он мощнее, тем больше внимания требует к архитектуре, безопасности и этике. А значит, сегодня защита данных — это не затраты, а условие существования. И лучше подумать об этом до первого инцидента, а не после.

Что скажешь, Хабр? Как еще можно уберечь свои личные и рабочие данные в век нейросетей?

Комментарии (7)


  1. Ekaterina_yrist
    28.10.2025 07:35

    ИП и небольшие компании,к сожалению,даже не думают о защите своих данных. Им нужно время либо негативный опыт,чтобы придти к этому


    1. kpshinnik Автор
      28.10.2025 07:35

      Боюсь, что вы правы — убедился на практике коллег. Каждый второй стартап задумывается о безопасности, только когда ей начинает что-то угрожать или когда уже поздно.


      1. Shaman_RSHU
        28.10.2025 07:35

        Да и у более крупных компаний просто есть ресурсы на разработку презентаций, в которых все безопасно и защищено. Но на практике также сталкиваются с негативным опытом потому что те, кто заявляет что всё хорошо и те, кто на практике реализовывает - разные люди


  1. Kamil_GR
    28.10.2025 07:35

    Я могу изготавливать таких статей от 40 в день. Открыт для предложений.


    1. kpshinnik Автор
      28.10.2025 07:35

      Если вы на что-то намекаете, то эту статью писал живой человек — я )


  1. Andrey_Gromov
    28.10.2025 07:35

    Статья поднимает критически важную тему, которая часто остается в тени при разговорах об ИИ — защита данных как фундамент, а не опциональный слой. Полностью согласен с тезисом о "небоскребе без фундамента": когда компании внедряют ИИ-сервисы, автоматизируют процессы и генерируют контент через нейросети, архитектура безопасности действительно часто отстает.

    Особенно цепляет пример с облаком как источником ложного чувства безопасности. В практике видел ровно то же самое: стартапы и даже крупные компании перемещают обучающие данные в облако, внедряют GPT-интеграции и останавливаются на этапе "облако = защита". А потом следует конфигурационная ошибка, потеря ключей доступа, и месяцы работы испаряются за несколько часов.


  1. alexandr93
    28.10.2025 07:35

    А потом компания разворачивает все на своём железе и думает, что в безопасности, а тулы для использования локальных ЛЛМ шпионят даже с выставленными галочками "не шпионить")) https://github.com/continuedev/continue/issues/2082