Привет! Делимся с вами материалом, подготовленным Романом Стрельниковым — руководителем направления информационной безопасности в Битрикс24. Роман — тот самый человек, который контролирует все и даже аппрувит статьи в этот блог, чтобы ни капли конфиденциальной информации не утекло из компании. 

Как видите, у нас безопасность под контролем человека. Даже несмотря на огромное количество ИИ-решений в сфере защиты информации. Мы понимаем, что ИИ становится полноценным игроком и в этой области. Причём сразу в двух командах: атакующих и защищающихся. Он учится, ошибается, адаптируется и совершенствуется. 

И если злоумышленники могут доверить атаку искусственному интеллекту, то что происходит на стороне защиты? Раньше мы всегда знали, что каковы бы ни были технические причины сбоя, падения сервера или проникновения в систему, ответственность всегда на сотруднике. В реальности, где решение принимает обученная модель, вопрос меняется: а кто виноват, если ошибся ИИ?

Это наша новая реальность. Добро пожаловать в очередную технологическую гонку.

На что способен ИИ в руках хакеров

Основное преимущество ИИ на стороне атакующих — это скорость: 

  • ИИ позволяет в десятки раз быстрее подбирать пароли — он анализирует утечки, строит вероятностные модели, понимает, какие комбинации более характерны для конкретного пользователя;

  • ИИ сканирует код на уязвимости быстрее человека и умеет писать вредоносный код, который меняется при каждом запуске. Такой вирус невозможно засечь по сигнатуре, иногда он не проявляется даже в «песочнице»; 

  • ИИ автоматизирует фишинг, позволяя проводить массовые атаки в десятки раз быстрее, чем раньше.

    29 октября 2024 года интернет-провайдер из Восточной Азии подвергся масштабной UDP DDoS-атаке мощностью 5,6 Тбит/с. Источником атаки стал ботнет, созданный на основе модифицированного вредоносного ПО Mirai. Этот инцидент вошёл в число крупнейших объёмных кибератак, зафиксированных в регионе за последние годы. Атака была очень короткой по времени, но интенсивность ее была рекордной. Компания была клиентом одного из крупнейших игроков на рынке ИБ — Cloudflare — но защита не смогла справиться с инцидентом. 

У человека нет такой скорости. Ни у одного SOC нет такой реакции. И если на защите компании не стоит аналогичный AI — скорее всего, атака неизбежна.

Что не так с ИИ на стороне защиты?

И злоумышленники, и эксперты по ИБ предпочитают создавать собственные ИИ-модели — каждый со своей целью. Общедоступные ChatGPT или DeepSeek не годятся для этой задачи, их фильтры позволяют лишь выдавать ограниченный объем информации на «запретные» темы. 

Мы для себя решили создавать собственную языковую модель и обучать ее на своих данных, на тех атаках, которые у нас происходят — это будет дешевле и быстрее, а сама модель будет небольшой, компактной.  

Такие модели как правило заточены под специфику конкретной компании или продукта, ведь им «скармливают» конкретные логи, методику, показательные триггеры и реальные кейсы. 

Аналогично поступают и злоумышленники, строя собственные модели для атак: собирают нужные данные и на них обучают свои модели, не ограниченные фильтрами, которые есть у доступных LLM-решений. Но они делают свои решения универсальными и доступными для «коллег по цеху». В связке, например, с Deep Seek, получается очень мощный инструмент, способный атаковать любую сеть. Тем самым ИИ очень сильно упрощает любые задачи по атаке. 

В то же время модели, используемые в защите, не столь универсальны — они ограничены конкретными инструментами, вынуждены закрывать слабые места в периметре и учитывать нюансы инфраструктуры.
Например, модель защиты, встроенная в SIEM-систему, может быть эффективной только в пределах заданных правил корреляции, лог-форматов и заранее известных паттернов атак. Если злоумышленник использует ранее неизвестный способ обхода (zero-day, нестандартные цепочки действий), модель может попросту не среагировать. 

Если в инфраструктуре используется нестандартная система авторизации, то универсальная защитная модель может игнорировать отклонения в логах, которые для конкретной компании — признак атаки. А чтобы адаптировать решение под эту особенность, нужны как ручные доработки, так и специфические данные для обучения.

По сути, универсальная модель защиты — это компромисс между точностью и обобщением. Но по-настоящему эффективные решения требуют глубокой настройки под инфраструктуру компании, постоянной актуализации данных и дообучения модели, что для многих организаций технически и финансово сложно реализовать.

Что может ИИ на стороне защиты? 

Как ни печально, но пока немногое.Анализ поведения и аномалий (XDR/SIEM)

Один из самых перспективных подходов — анализ пользовательского и сетевого поведения. Искусственный интеллект следит за привычной активностью и мгновенно реагирует на отклонения: необычные IP, массовое скачивание файлов, подозрительные попытки доступа к сегментам сети. Это не просто реакция на сигнатуру — это попытка понять, что именно происходит и как решить проблему.

Прогнозирование атак

ИИ учится на прошлом опыте. Он анализирует паттерны предыдущих атак, сопоставляет их с текущими событиями и делает вывод: если бот начал сканировать одну систему, с высокой вероятностью он пойдёт и на соседнюю. Модель, правильно обученная на качественных, размеченных данных, отражающих реальные инциденты в конкретной среде, может предсказать следующую точку взлома.

Без такого обучения этого даже самая мощная LLM будет слепа к особенностям инфраструктуры.

Например, модель ИИ, которую обучили на данных об активности внутри облачной инфраструктуры (логи доступа, временные аномалии, поведенческие профили сервисных учёток), смогла выявить планируемый взлом еще на стадии подготовки. Перед внутренним пробоем периметра злоумышленники сначала запрашивали метаданные хранилища и тестировали отклики от API в нетипичное время (например, ночью в выходные). Ранее такая активность воспринималась как шум. После дополнительного обучения на подобных кейсах система начинала с высокой точностью выявлять начало цепочек атак — ещё до наступления основного инцидента.

ИИ умеет атаковать и защищать. Но мы до сих пор не можем переложить на него всю ответственность за ИБ.  За громкими обещаниями «автоматической кибербезопасности» часто скрывается не универсальное средство, а сложный инструмент, требующий точной настройки и квалифицированной поддержки.

Например, SOAR и автоматизированное реагирование в теории звучит как мечта: событие произошло, система всё поняла, сама заблокировала, всех уведомила и обновила правила. На практике всё упирается в то, как и кем этот AI обучался.

Предположим, модель автоматического реагирования была обучена на логах за «спокойный» период — когда атак почти не было, зато в системе регулярно возникали ложные тревоги от нестабильной работы сети и периодических обновлений. В результате ИИ выучил, что «аномалии — это нормально», и начал игнорировать потенциально опасные отклонения. Когда началась реальная фишинговая атака с захватом учётной записи и внутренним сканированием, система не среагировала — всё укладывалось в её представление о «норме». В другой ситуации такой ИИ, обученный на жёстких правилах и «чистых» логах, начал агрессивно блокировать действия администраторов, принимая их плановые операции за подозрительную активность.

Риски от такого подхода очевидны:

  • пропущенные атаки из-за смещённого представления о нормальном поведении;

  • паралич бизнес-процессов при ложных срабатываниях;

  • утрата доверия к системе, когда её действия становятся непредсказуемыми.

Поэтому ИИ — это не «волшебная кнопка», а инструмент, эффективность которого зависит от качества данных и постоянного переобучения.

Пример: внедрение SOAR/XDR в Битрикс24

В Битрикс24 мы внедряем XDR-подход осознанно, без фанатизма и шаг за шагом.

Сначала — отладка логирования и мониторинга. Потом — обучение моделей. Затем — аккуратное внедрение сценариев автоматического реагирования.

Только так можно добиться того, чтобы AI действительно помогал, а не создавал иллюзию защищённости.

Мы также регулярно проверяем, насколько наша инфраструктура действительно защищена. Проводим тестирования на проникновение — иногда «вслепую» (black box), когда проверяющие ничего не знают о внутреннем устройстве, а иногда с частичным доступом (gray box), чтобы увидеть, как поведёт себя система под давлением. Это делают не только наши специалисты: мы привлекаем внешних экспертов, чтобы получить максимально объективную картину.

Такая практика помогает нам не просто найти уязвимости, а держать руку на пульсе и постоянно адаптироваться под новые угрозы. Ведь высокий уровень защищенности — это не статус, а процесс, который нужно поддерживать каждый день.

Где ломается автоматизация: реалии ИБ-рынка

Системы ИБ часто преподносятся как магические решения. Но за фасадом красивого интерфейса скрывается:

— сложная настройка,

— необходимость ручного дообучения моделей,

— и обязательное участие квалифицированных специалистов.

Без них AI-продукт либо не сработает, либо сработает не туда.

Главная проблема — нехватка квалифицированных кадров. По последним данным в первые 3 месяца 2025 года открыто почти 42 тыс. вакансий в сфере ИБ — это уже почти половина от всего 2024 года. Зарплаты в сегменте опережают рост в целом в ИТ, а основная проблема — недостаток актуальных навыков у соискателей и отставание образовательных программ от потребностей рынка.

Именно специалисты уровня L2–L3 пишут правила реагирования, анализируют инциденты, настраивают playbook'и и делают так, чтобы автоматизация действительно работала.

Вопрос не в том, заменит ли искусственный интеллект человека в ИБ, а в том, у кого ИИ в команде сильнее, лучше обучен и более эффективен. ИИ не заменит команду специалистов со стороны защиты, но значительно усилит ее, как он уже сейчас усиливает злоумышленника. Не стоит пытаться все переложить на нейросеть, важнее научиться использовать ее быстрее, глубже и умнее, чем противник.

Комментарии (0)