Статьи
8 февраля 2026 г.

ИИ в кибербезопасности: новые правила игры для атакующих и защитников
Искусственный интеллект стремительно меняет правила игры в информационной безопасности. Он снижает порог входа для злоумышленников, делает атаки более персонализированными и массовыми одновременно, а фишинговые кампании — практически неотличимыми от легитимной переписки. В то же время ИИ становится незаменимым помощником для защитников: ускоряет триаж инцидентов, помогает выявлять аномалии и снижает рутинную нагрузку на аналитиков SOC.
Но где граница между реальной пользой и маркетинговым хайпом? Как проверять решения ИИ, чтобы не допустить галлюцинаций с критическими последствиями? Какие специалисты оказываются наиболее уязвимыми перед атакующими, вооружёнными нейросетями? И как изменится рынок ИБ в ближайшие годы?
Редакция CISOCLUB обсудила эти и другие вопросы с экспертами отрасли. Специалисты рассказали, как ИИ уже изменил профиль атак, какие задачи разумно отдавать ИИ, как безопасно внедрять его в защиту и какие метрики действительно показывают эффективность. Своими наблюдениями и рекомендациями поделились:
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда».
Павел Пилькевич, инженер-разработчик отдела систем анализа машинных данных STEP LOGIC.
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис».
Кирилл Филимонов, специалист по анализу защищённости ПК «РАД КОП».
Александр Соловьёв, специалист по анализу защищённости, независимый эксперт.
Иван Бадеха, независимый эксперт АИС.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX.
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ.
Юрий Драченин, заместитель руководителя направления информационной безопасности Контур.Эгида и Staffcop.
Сергей Зыбнев, ведущий специалист отдела по работе с уязвимостями ИС Бастион.
Дмитрий Пензов, технический директор компании ATLAS.
Юлия Сонина, старший аналитик Аналитического центра УЦСБ.
Как ИИ уже изменил профиль атак на компании, если смотреть на фишинг, социальную инженерию и автоматизацию разведки?
Эксперты сходятся в главном: ИИ не создал принципиально новых типов атак, но сделал существующие качественно эффективнее. Порог входа для злоумышленников снизился — теперь для проведения серьёзных атак достаточно быть продвинутым пользователем LLM. Фишинг стал одновременно персонализированным и массовым, дипфейки вышли на уровень, где клонирование голоса стоит недорого, а OSINT-разведка, требовавшая ранее дней ручной работы, выполняется ботом за минуты.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда»:
«Если рассуждать о профиле атак, то он изменился скорее не у атак, а у атакующих. Инструменты генерации кода и текстов сделали порог вхождения в «опасный бизнес» ниже. Соответственно, от атакующих требуется меньше знаний для создания ВПО [вредоносного программного обеспечения]. К тому же возросло среднее качество социотехнических атак, включая подделку голоса и видео».
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX:
«Под влиянием ИИ атаки стали умнее, короче и дешевле. Барьер входа для злоумышленников заметно снизился, а эффективность атак, наоборот, выросла.
Первое ключевое изменение — это персонализация атак при сохранении массовости. Раньше существовало чёткое разделение: массовые атаки были примитивными, а целевые — дорогими и штучными. Использование ИИ фактически разрушило это ограничение. Сегодня мы видим атаки, где каждый из тысячи запросов в рамках одной кампании может быть уникальным: различаются user-agent, referer, параметры HTTP-запросов, тайминги, поведенческие характеристики. Благодаря ИИ стоимость такой кастомизации практически обнулилась, а эффективность обхода сигнатурных правил выросла кратно.
Второе изменение — исчезновение привычных маркеров вредоносной активности. Грамматические ошибки, некорректные заголовки, примитивные скрипты и другие «красные флаги», на которые раньше опирались защитные механизмы, всё чаще отсутствуют. На уровне L7 OSI мы наблюдаем атаки, где HTTP-трафик практически неотличим от легитимного: заголовки Accept-Language соответствуют GeoIP, TLS-отпечатки совпадают с заявленными браузерами, поведенческие паттерны имитируют человека. Третье важное последствие — резкое сжатие временных окон. За счёт автоматизации всего цикла с помощью ИИ — от сканирования и анализа поверхности атаки до генерации полезной нагрузки — промежуток между этапами разведки и эксплуатации сокращается до часов, что существенно повышает требования к скорости обнаружения и реагирования».
Сергей Зыбнев, ведущий специалист отдела по работе с уязвимостями ИС Бастион, подчеркнул масштабирование атак с минимальными потерями качества:
«BEC-атаки [Business Email Compromise] стали убедительнее — модель легко имитирует стиль общения конкретного руководителя, если «скормить» ей пару его писем. Зафиксированы случаи, где клонированный голос CTO использовался для авторизации переводов. Порог входа — три секунды аудио и $5 на API».
При этом он призвал не впадать в панику: «ИИ — это мультипликатор для уже компетентных атакующих, а не волшебная палочка для скрипт-кидди».
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ, обратил внимание на другую сторону проблемы:
ИИ всё чаще оказывается не только инструментом атакующих, но и объектом атак. Уже зафиксированы инциденты, связанные с уязвимостями и компрометацией ИИ-систем — от атак на инфраструктуру DeepSeek до утечек данных из западных LLM-платформ. Отдельные риски связаны с неконтролируемым применением ИИ внутри самих организаций.
Иван Бадеха, независимый эксперт АИС:
«Для проведения широкого спектра атак теперь достаточно быть продвинутым пользователем LLM, и эта компетенция порой способна заменить глубокие знания и навыки в предметной области. С применением LLM в связке с уже готовыми фреймворками вроде WormGPT/FraudGPT генерируют персонализированные, грамматически безупречные письма на языке жертвы, учитывающие контекст. Появление инструментов вроде HexStrike наводит на мысль о том, что ИИ в первую очередь приносит пользу в деструктивной деятельности».
Дмитрий Пензов, технический директор компании ATLAS, подтвердил общий тренд: атак стало больше, они стали точнее и дешевле. OSINT, по его словам, превратился из «пару дней вручную» в «пару минут с помощью бота», а социальная инженерия вышла на новый уровень за счёт доступности качественных подделок голоса и видео.
Александр Соловьёв, специалист по анализу защищённости, независимый эксперт, обратил внимание на доступность подделок.
По его словам, с ИИ стало проще создавать копии веб-ресурсов компании — в некоторых случаях достаточно отправить скриншот, и модель воспроизведёт страницу. Выросло и качество дипфейков: «Достаточно пары минут аудио с голосом человека, нескольких фото, которые можно найти в открытом доступе — и персонализированное видеообращение готово».
Юлия Сонина, старший аналитик Аналитического центра УЦСБ:
«Злоумышленники совершили успешную атаку на международную сеть отелей, используя вишинг с имитацией голоса одного из сотрудников для доступа к системе и внедрения шифровальщика, что привело к убыткам $100 млн. Реалистичные дипфейки клонируют голоса и элементы видео — сотрудник регионального офиса финансовой компании совершил перевод $25 млн во время дипфейк-видеозвонка: ИИ сгенерировал фейковые лица CFO и коллег, убедив жертву в срочной секретной транзакции. В 2025 году почта оставалась вектором более 80% атак».
Юрий Драченин, заместитель руководителя направления информационной безопасности Контур.Эгида и Staffcop, предложил более приземлённый взгляд:
по его опыту общения с заказчиками, на практике ИИ используется прежде всего как инструмент автоматизации рутинных процессов — помощь в сборе данных, ускорение типовых операций и формирование отчётов. Доверять ИИ чему-то большему серьёзные заказчики пока не готовы — это осознанная позиция, и в ближайшие пару лет ситуация принципиально не изменится.
Какие признаки в телеметрии и расследованиях помогают отличать атаки с ИИ от «обычных»?
Ключевые маркеры ИИ-атак — полиморфизм при сохранении семантики, аномальная скорость развития сценария, лингвистическая однородность массовых рассылок и адаптивное поведение в реальном времени. Выявлять их помогают UEBA и мониторинг скорости уникальных запросов. Однако специалисты предупреждают: опытный атакующий уберёт следы работы нейросетей, поэтому строить защиту исключительно на детекции «ИИ против человека» не стоит.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX:
«Первый признак — полиморфизм при сохранении семантики. Обычный ботнет генерирует вариации через шаблоны: параметры меняются, но структура запроса остаётся стабильной. ИИ-генерация создаёт уникальные запросы с разной структурой, но одинаковым смыслом. У нас был кейс, когда при атаке на API 10 000 запросов имели разные параметры, однако целевое действие было идентичным.
Второй индикатор — аномально высокое качество контекста: корректные токены, релевантные пути навигации, естественные паттерны поведения пользователя. Подобный уровень контекстной точности достижим для человека в единичных сценариях, но его массовое воспроизведение указывает на использование автоматизированных систем.
Третий признак — адаптивное поведение в реальном времени. Классические боты, получив блокировку, либо прекращают активность, либо повторяют одни и те же действия. В атаках с ИИ заметна быстрая смена тактики: модификация заголовков, выбор альтернативных endpoint, изменение темпа запросов. Такая динамика указывает на наличие механизма принятия решений, а не жёстко заданного сценария. Дополнительным признаком могут служить метаданные инфраструктуры атаки — в отдельных случаях при анализе полезной нагрузки обнаруживаются обращения к API языковых моделей или характерные артефакты ML-инструментов».
Сергей Зыбнев, ведущий специалист отдела по работе с уязвимостями ИС Бастион:
«К признакам, которые помогают отличить присутствие ИИ, относятся эмодзи в тексте, коде и комментариях. Это один из самых явных паттернов — ИБ-специалисты уже не раз находили такие артефакты в ВПО. Ещё один сигнал — лингвистическая однородность. Если вы видите 500 фишинговых писем с идеально правильной грамматикой, без опечаток, но с микровариациями в формулировках — это характерный паттерн LLM-генерации».
При этом он предостерёг: «Если атакующий опытный, он уберёт следы работы нейросетей. Не стоит строить защиту исключительно на детекции «ИИ против человека».
Иван Бадеха, независимый эксперт АИС, подчеркнул, что одним из верных признаков атаки с ИИ является аномальная скорость развития сценария. Автоматизированная атакующая система, умеющая просчитывать наперёд миллиарды вариантов, обгонит по скорости вычислений любую, даже самую слаженную команду. В качестве примера он привёл кампанию, обнаруженную в ноябре 2025 года компанией Anthropic: злоумышленник использовал Claude для разведки, написания эксплойтов и сбора данных.
Юлия Сонина, старший аналитик Аналитического центра УЦСБ, указала на возможности анализа UEBA для определения признаков ИИ по нечеловеческим паттернам — например, сканированию уязвимостей на больших объёмах данных или предиктивному выбору целей. Она также отметила, что ИИ маскирует атаки под легитимный трафик, создавая ложные маршруты в логах, и рекомендовала установить мониторинг скорости уникальных запросов как один из ключевых индикаторов.
Какие ИБ-специалисты первыми проигрывают атакующему с ИИ и почему?
Эксперты выделили несколько профилей уязвимых специалистов. Прежде всего — команды, строящие защиту вокруг статических правил и сигнатур. Следом — реактивные «тушители пожаров» с долгими циклами согласования. Отдельно отмечены низкоквалифицированные специалисты и те, кто не рассматривает ИИ как угрозу и не адаптирует свои процессы к новой реальности.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX, выделил три уязвимых профиля. Первый — «хранители статичных правил»: команды, чья защита годами строилась вокруг сигнатур и списков блокировок. «При ИИ-генерации каждая атака становится уникальной по форме, и статическое правило срабатывает только на уже известный шаблон. Пока команда анализирует инцидент и пишет новое правило, атака уже завершена».
Второй профиль — «тушители пожаров», работающие по реактивной модели: пока специалист вручную разберётся с первым эпизодом, атака уже завершилась на десятках других объектов. Третий — команды с сильной защитой на сетевом уровне, но слабым контролем на уровне приложений (L7 OSI).
Дмитрий Пензов, технический директор компании ATLAS:
«L1-аналитик делает триаж по чек-листу, он верит в сигнатуры и хеши как в религию. В случае ИИ-атак это превращается в ад: вариативность фишинга такая, что сигнатурный мир просто тонет в FP и шуме. Вторая зона риска — команды реагирования с долгими согласованиями. Пока они созваниваются и решают, можно ли заблокировать подозрительных персонажей, атакующий уже успел докрутить привилегии и выгрузить данные».
Он также отметил устаревший подход к обучению: «Если учить людей распознавать фишинг по опечаткам, вы учите их ловить динозавров».
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ, отметил, что традиционно первыми проигрывают те, у кого ИБ — формальность. Следом — специалисты, которые не рассматривают ИИ как угрозу и без ограничений разрешают использование ИИ-систем внутри компании. В среде AppSec/DevSecOps даже родилась шутка: скоро работа сведётся к тому, чтобы отследить, «таскает» разработчик код из ИИ или нет.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда», считает, что проигрывают прежде всего низкоквалифицированные специалисты. Он подчеркнул, что набор мер против «обычных» атак вполне способен помочь и против атак с ИИ, но его необходимо грамотно реализовать. При этом возрастает потребность во взращивании киберкультуры в компаниях — бизнес традиционно не любит на это тратиться, из-за чего фишинг остаётся в топ-3 действенных векторов проникновения.
Иван Бадеха, независимый эксперт АИС, сфокусировался на том, что с применением ИИ граница между массовой атакой и APT становится всё тоньше, целенаправленные атаки удешевляются. ИИ вносит непредсказуемость и масштаб, против которых человеческий мозг без усиления своими ИИ-инструментами неэффективен.
Юлия Сонина, старший аналитик Аналитического центра УЦСБ:
«К самым уязвимым категориям относятся те, чьи задачи рутинны и масштабируемы: специалисты по мониторингу и реагированию первой линии, аналитики угроз и специалисты ручного тестирования на проникновение. Человеку физически не успеть за генерацией ИИ — аналитик будет тратить часы на ложные срабатывания, пока злоумышленник с помощью ИИ тестирует новые вредоносные действия в реальном времени».
Кирилл Филимонов, специалист по анализу защищённости ПК «РАД КОП», добавил, что проигрывают не только защитники: пентестеры и редтимеры, не использующие ИИ в своей работе, тоже уступают атакующим с ИИ.
Какие задачи в SOC разумно отдавать ИИ уже сейчас, чтобы ускорить триаж, корреляцию и расследование, не теряя управляемость?
Все опрошенные эксперты сходятся в главном: ИИ уже сейчас полезен для автоматизации рутины — первичного триажа, обогащения алертов, суммаризации и подготовки выжимок. Однако финальные решения, особенно связанные с блокировками и эскалациями, должны оставаться за человеком. ИИ — ассистент аналитика, а не его замена.
Сергей Зыбнев, ведущий специалист отдела по работе с уязвимостями ИС Бастион:
«Первичный триаж и обогащение алертов: собрать контекст из 10 источников, нормализовать, приоритизировать. LLM с этим справляется и экономит 10–15 минут на инцидент. Суммаризация тикетов и timeline: вместо чтения 200 строк лога получить короткое резюме. Корреляция по natural language запросам: можно задать команду «покажи все события с этого хоста за последние два часа, связанные с сетевыми аномалиями» — это быстрее, чем писать KQL/SPL. Генерация IOC и YARA-правил: черновики по описанию угрозы».
При этом он подчеркнул: «Решения о блокировках, финальные заключения в отчётах, коммуникация с бизнесом — это должно остаться за человеком. Нейросети — это ассистент аналитика, а не его замена».
Павел Пилькевич, инженер-разработчик отдела систем анализа машинных данных STEP LOGIC:
«Одним из наиболее распространённых примеров является использование ИИ для ответов на вопросы на основании базы знаний (RAG). Имея контекст произошедших событий и инцидентов, аналитик SOC может поставить модели вопрос в свободной форме. В нашем SOC активно используется ИИ-агент, который позволяет не только отвечать на теоретические вопросы, но и предлагать автоматически выполнить ряд действий по плейбуку во время работы с инцидентом. При этом предлагаемые действия берутся из карточки инцидента, что исключает возможность галлюцинаций».
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис»:
«По различным оценкам, до 60–80% алертов от SIEM составляет шум, что подтверждается и нашими наблюдениями. Автоматизация через SOAR и ML-модели уже сейчас помогает обрабатывать до 25–30% типовых инцидентов. При наличии рекомендаций от ИИ аналитик SOC валидирует эти рекомендации, а не проводит полное расследование — время обработки рутинной карточки сокращается кратно».
Она также подчеркнула: для событий высокой критичности методы автоматической обработки не применяются никогда, а автозакрытие возможно исключительно для низкоприоритетных событий в зоне высокой уверенности модели.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда», добавил, что генеративные модели хорошо подходят для подготовки выжимок и выводов по заданным критериям из больших объёмов информации, выступая в роли дополнительного «коррелятора», выдающего человекочитаемый свод аналитики.
Иван Бадеха, независимый эксперт АИС, акцентировал внимание на способности ИИ обогащать алерты контекстом — критичностью актива, историей пользователя, текущими событиями — и формулировать подкреплённые гипотезы при расследовании для дополнительной оценки аналитиком.
Дмитрий Пензов, технический директор компании ATLAS, резюмировал: на практике ИИ хорошо работает как усиленный L1 SOC, но без права на критические действия. Отключить прод, заблокировать ключевого пользователя, снести сервис — это как минимум гибридные решения с обязательным участием специалиста.
Как проверяют, что ИИ в SOC не «галлюцинирует» и не делает выводы без фактов, когда на кону блокировки и простои?
Эксперты сошлись на фундаментальном принципе: последнее слово — всегда за человеком. Для контроля качества работы ИИ используется требование к источникам, двойная проверка, мониторинг дрейфа данных, оценка неуверенности модели и интерпретируемость решений.
Сергей Зыбнев, ведущий специалист отдела по работе с уязвимостями ИС Бастион:
«Модель должна указывать конкретные строки логов, алерты, источники. „Я думаю, что это malware» — не считается полноценным ответом. „На основании события X в логе Y в 14:32″ — принимается. Если модель сомневается в решении, она передаёт информацию и управление человеку. Критичные выводы проверяются второй моделью или скриптами, если есть сильные расхождения — требуется внимательный ручной разбор. Каждое заключение должно быть воспроизводимо. Если нельзя объяснить, почему модель приняла определённое решение, — это явный признак некачественной работы. Любые активные действия сначала проводятся в пробном режиме с логированием».
Павел Пилькевич, инженер-разработчик отдела систем анализа машинных данных STEP LOGIC отметил, что проверка выполняется с помощью тестирования на заранее подготовленных датасетах и сбора метрик, но даже эти меры не могут гарантировать, что модель не начнёт «выдумывать» в частном случае. Поэтому он предложил стратегию, при которой все финальные решения остаются под ответственностью человека. Модель не должна сама инициировать блокировку, но может предложить такое действие с подробным обоснованием. Если аналитик подтверждает — ИИ помогает автоматизировать вызов операции. Такой подход делает из ИИ советника, не заменяя аналитиков.
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис»:
«В первую очередь это интерпретируемость решений для верификации логики модели. Важнейший процесс — валидация на реальных вердиктах: сопоставление итогового вердикта аналитика и прогноза модели. Помимо отслеживания деградации, это позволяет вовремя дообучать модель на новых данных. Классическая рекомендация — мониторинг дрейфа данных: отслеживание статистических изменений, чтобы вовремя понять, что нужно заново обучать модель. Дополнительно целесообразно внедрение оценки неуверенности модели для детектирования ситуаций, когда модель сталкивается с паттернами, не представленными в обучающей выборке».
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда», обратил внимание на разницу между моделями: действительно экспертные компании реализуют узкозаточенные нейросети под конкретные задачи — например, выявление определённого набора методов эксплуатации или сетевых аномалий. Отдавать результаты работы больших генеративных моделей сразу в response на текущем этапе было бы «самоубийственно», а вот обеспечить аналитику «ещё одну пару рук» — вполне оправданно.
Иван Бадеха, независимый эксперт АИС, описал практику двойного подтверждения для критичных действий — от двух независимых моделей, либо от ИИ-модели и человека. Также он указал на необходимость постоянного прогона используемых моделей с проверкой выводов как на реальных инцидентах, так и на специально подготовленных данных, провоцирующих ИИ на ошибочные действия. При этом, если риск атаки существенно превышает риск от временной приостановки сервиса, в процесс может закладываться и прямое регулирование со стороны ИИ с возможностью у аналитика выполнить корректирующее действие.
Как меняется детектирование, когда атаки становятся короткими и массовыми, а сигнатуры устаревают быстрее, чем обновляются?
Эксперты констатируют: классический сигнатурный цикл системно отстаёт от времени жизни атаки. На первый план выходят поведенческий анализ, скоринговые модели, анализ на уровне сессий и UEBA. При этом сигнатуры и ML-модели остаются взаимодополняющими инструментами — ни один из них не работает эффективно в одиночку.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX:
«При детектировании важно спрашивать не «что это?», а «как это себя ведёт?». Один из ключевых подходов — анализ на уровне сессии, а не отдельного запроса. Единичный запрос может выглядеть полностью легитимным, однако последовательность из 10–20 запросов уже формирует характерный паттерн. Для этого анализируются типы запросов, тайминги, навигационные модели и взаимосвязи между действиями в рамках одной сессии. Вместо фиксированных порогов вроде количества запросов в секунду информативнее отслеживать резкие отклонения — рост нагрузки на сотни процентов за короткий промежуток для конкретного источника или сессии. Дополнительную гибкость даёт скоринговая модель, комбинирующая несколько слабых сигналов: аномальные тайминги, нетипичные отпечатки клиентов, использование прокси-инфраструктуры. В условиях быстро меняющихся угроз модели должны переобучаться не по жёсткому расписанию, а в ответ на появление новых триггеров — обновление бейзлайнов на основе заблокированных сценариев позволяет сохранять актуальность детектирования».
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис»:
«Цикл обнаружения уже превышает время жизни атаки — сигнатурный подход системно отстаёт. Но модели машинного обучения более гибкие: они оперируют паттернами в пространстве признаков, а не индикаторами компрометации. Однако модели менее надёжны — это обусловлено их статистической природой. Без контура обратной связи любая модель за несколько месяцев превращается в аналог устаревшей сигнатуры. Сигнатурные правила и ИИ на настоящий момент — два главных взаимодополняющих инструмента».
Павел Пилькевич, инженер-разработчик отдела систем анализа машинных данных STEP LOGIC, отметил развитие методики обнаружения медленных, растянутых во времени атак: большие языковые модели анализируют произошедшие события и выявляют косвенную связь между ними. Для сложных атак на помощь приходит поведенческий анализ (UEBA), позволяющий фиксировать аномальное поведение рабочих станций и пользователей.
Иван Бадеха, независимый эксперт АИС, добавил, что тактика обеспечения ИБ всё больше базируется на киберустойчивости — способности критичных процессов и сервисов восстанавливаться в установленном объёме и в приемлемые сроки. Он также подчеркнул растущую востребованность интеграции с Threat Intelligence и решениями классов Sandbox, EDR, NTA и UEBA.
Что даёт лучший эффект против ИИ-автоматизации у атакующих: повышение качества данных, пересборка правил или переобучение моделей на собственных инцидентах?
Эксперты предлагают комплексный подход с чёткой последовательностью: сначала качество данных, затем переобучение моделей на собственных инцидентах, и только потом пересборка правил. Особое преимущество получает защищающийся, который знает свою инфраструктуру лучше атакующего.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX:
«Первый и главный приоритет — качество данных. Без корректных и полных данных ни правила, ни модели машинного обучения работать не будут. Ключевое — нормализация и обогащение информации: не только IP-адрес, но комбинация IP/ASN, геолокация, репутация и история активности; не только user-agent, но отпечаток клиента, консистентность с заголовками. Важно логировать не только атаки, но и легитимный трафик, чтобы модели понимали, что является нормой. Инвестиции в качество данных дают мгновенный эффект: даже простые правила начинают работать лучше, а ML-модели показывают меньше ложных срабатываний. Второй приоритет — переобучение моделей на собственных инцидентах: дообученные на данных конкретного клиента модели позволяют снизить количество ложных срабатываний на 40–50% при сохранении чувствительности. Третий — пересборка правил. Современные правила уже не ограничиваются блокировкой конкретного паттерна — они используются для оркестрации действий поверх модели, например через скоринговые механизмы. Но это скорее «гигиена» защиты: она необходима, но сама по себе не обеспечивает значимого повышения эффективности против ИИ-атак. Попытка внедрить машинное обучение без качественных данных приведёт к росту ложных срабатываний и потере времени».
Иван Бадеха, независимый эксперт АИС:
«Защищающийся обязан изучить специфику своей ИТ-инфраструктуры глубже и быстрее, чем это сделает атакующий, ведь у него, в отличие от атакующего, нет права на ошибку. Если ваша модель знает ваши нормальные бизнес-процессы, она выявит аномалию, которую обобщённый ИИ злоумышленника не смог замаскировать».
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда», указал, что ИИ-автоматизация у атакующих сейчас работает в основном на модификацию вредоносного кода и подготовку социотехнических материалов. Против этого работают качественная эвристика, ML-детект ВПО и аномалий, обучение персонала.
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ, отметил, что решения, развиваемые внутри отечественного рынка, всё чаще демонстрируют сопоставимое или даже более высокое качество по сравнению с зарубежными аналогами, поскольку обучаются на релевантных данных и отражают реальные условия эксплуатации.
Как выстраивать контур безопасной автоматизации, чтобы ИИ мог действовать, но не «ломать» инфраструктуру?
Эксперты выделяют несколько ключевых принципов безопасной автоматизации: нулевое доверие к ИИ, поэтапное внедрение, логирование всех действий, лимитирование автоматических блокировок и обязательная возможность отката. Модель должна работать в рамках контролируемых «рельс», а не принимать критичные решения самостоятельно.
Иван Бадеха, независимый эксперт АИС:
«На текущем этапе развития важно соблюдать принцип нулевого доверия для ИИ-автоматизации — благо, мы пока не готовы персонализировать ответственность на нейросеть. Автоматические сценарии реагирования должны быть неизменяемыми в процессе выполнения и проходить строгий код-ревью. Автоматизация должна быть подконтрольной — вплоть до возможности отключения всех сценариев одной кнопкой. Важно проводить учения по различным сценариям, включая отработку случаев отказа или неправильной работы автоматизации».
Он рекомендовал поэтапное внедрение: начинать с пилотной зоны и действий с низким риском (обогащение алертов, уведомления), затем переходить к среднему риску (изоляция хостов) и только потом — к более критичным действиям.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX, описал принципы на примере веб-защиты:
«Первый принцип — автоматическое реагирование только на явно подозрительные события: известные эксплойты, очевидно вредоносные IP-адреса, атаки, которые можно отсеять с помощью rate limiting. Для менее очевидных случаев применяются механизмы усложнения — CAPTCHA или JavaScript-челлендж — без немедленной блокировки. Второй принцип — тестирование новых правил и моделей в «прокси-режиме»: решения сначала только логируются без фактических блокировок, что позволяет оценить ложные срабатывания и откорректировать параметры. Третий принцип — лимитирование автоматических действий: любая блокировка должна иметь пороговое ограничение. Если лимит превышен, автоматика останавливается и решение принимает человек. Это своего рода аварийный рубильник. Каждое автоматическое действие должно иметь возможность мгновенного отката, а все решения ИИ необходимо логировать с полным контекстом: какие данные использовались, как был рассчитан скор и почему модель приняла именно такое решение».
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис», напомнила, что в 2024 году глобальные потери из-за галлюцинаций нейросетей составили $67,4 млрд. Поэтому в её команде приняли решение не доверять ИИ критичные решения, а использовать его исключительно для помощи аналитику. Критичные события всегда обрабатываются человеком, а модели могут лишь приоритизировать остальные события и подсвечивать потенциальных кандидатов на автозакрытие.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда»:
«В первую очередь необходимо выстроить модель угроз, в которой целью атакующих могут быть данные, к которым допущен ИИ. Соответственно, применить разграничение доступа, средства защиты СУБД, содержащих критичную информацию. В тех случаях, когда ИИ работает как аналитическая система, к ПДн и подобным данным возможно применить также маскирование. Представив, что ИИ — просто особый вид «подрядчика», которого вы пускаете в свою инфраструктуру».
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ:
«Во-первых, LLM должна быть жестко ограничена корпоративным цифровым контуром. Во-вторых, желательно, чтобы модель разрабатывалась внутри самой компании. Допустим и сторонний разработчик, но он должен быть российским. В-третьих, важно соблюдать стандарты внедрения ИИ, которые уже существуют: это, например, рекомендации Сбера и Яндекса, а также известный всем OWASP TOP 10 LLM».
Какие метрики показывают, что ИИ в защите приносит пользу, а не просто увеличивает поток алертов и красивых отчётов?
Эксперты предлагают оценивать ИИ через конкретные бизнес-метрики: снижение MTTD (Mean Time to Detect — среднее время обнаружения) и MTTR (Mean Time to Respond — среднее время реагирования), сокращение рутинной нагрузки на аналитиков при отсутствии роста пропусков, повышение доли истинно положительных срабатываний. Один из экспертов сформулировал важное правило: любая метрика должна подтверждаться как минимум двумя критериями.
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис»:
«Количество рутинной работы, снятой с аналитика, — при условии отсутствия роста пропусков — самая честная метрика. Допустим, стоит задача снижения числа ложных срабатываний правил SIEM, и модель отмечает 75% потока как ложные срабатывания, когда 82% из них подтверждаются аналитиками. Для бизнеса это означает, что один аналитик с помощью модели обрабатывает объём работы, который раньше требовал четверых, а 50% потока закрывается почти автоматически. Важно отслеживать и негативные результаты — пропуски, в том числе низкоприоритетных событий в зоне высокой уверенности модели. Значение в 2% сопоставимо с ошибкой человека при ручной обработке, но всё равно неприемлемо для критичных инцидентов».
Иван Бадеха, независимый эксперт АИС, рекомендовал оценивать ИИ через метрики бизнес-эффекта: снижение MTTD и MTTR, повышение коэффициента точности алертов, рост покрываемой поверхности атаки согласно MITRE ATT&CK, количество инцидентов, разрешённых автоматически без ущерба, а также снижение средней стоимости инцидента за счёт более быстрого и точного реагирования.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда»:
«Повышение числа выявленных и заблокированных аномальных соединений в сетевом трафике при условии отсутствия роста жалоб пользователей. Сокращение времени триажа условно-нестандартных кейсов при условии отсутствия роста false-positive. Любая метрика должна подтверждаться как минимум двумя критериями».
Павел Пилькевич, инженер-разработчик отдела систем анализа машинных данных STEP LOGIC, выделил ключевые метрики: время реагирования на инциденты, время расследования, количество повторно открываемых расследований и процент подтверждённых алертов. Он подчеркнул, что чаще всего ИИ в SOC не занимается обнаружением алертов — он автоматизирует и ускоряет рутинные задачи аналитиков.
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ, полагает, что показательными будут метрики количества инцидентов в сочетании с интегральной оценкой уровня зрелости ИБ компании.
Как изменится рынок ИБ из-за ИИ в ближайшие два года, если смотреть на людей, процессы и технологии?
Большинство экспертов прогнозируют серьёзную трансформацию рынка: рутинные роли будут частично замещены автоматизацией, вырастет спрос на гибридных специалистов, совмещающих навыки ИБ и работы с AI/ML, а базовая защита без ИИ через 2-3 года будет восприниматься как неэффективная. Однако есть и более сдержанные оценки: профессия ИБ-специалиста слишком творческая для полной автоматизации, а влияние ИИ на процессы пока минимально.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX:
«Многие роли, такие как аналитики SOC, занимающиеся ручным разбором алертов и базовым расследованием, будут частично или полностью замещены автоматизацией. Спрос сместится к специалистам, способным настраивать правила защиты и модели машинного обучения, интерпретировать решения ИИ и проводить продвинутый Threat Hunting. Вырастет потребность в гибридных ролях, совмещающих навыки Security Engineer и Data Scientist. Опытные senior-специалисты станут ещё более ценными — именно их экспертиза необходима для обучения моделей и валидации автоматических решений. Процессы будут перестраиваться вокруг постоянного переобучения: модели обновляются на основе свежих данных, правила адаптируются автоматически. До 80% рутинных операций будут выполняться автоматически, однако финальное решение останется за человеком. Компании будут выбирать интегрированные платформы с ИИ и ML, а CDN и WAF-провайдеры будут интегрировать больше возможностей ИИ в платформу. Через два-три года базовая защита без ИИ будет восприниматься как неэффективная, аналогично тому, как сейчас отсутствие HTTPS считается критическим».
Иван Бадеха, независимый эксперт АИС:
«Весьма вероятно, что исчезнут рутинные роли, такие как аналитик первой линии центра реагирования. Возрастёт спрос на гибридных специалистов: «ИИ-инженер в ИБ», «Аналитик данных по угрозам ИБ», «Аудитор этики ИИ». Ожидаем смещения фокуса с реагирования на предсказание и предотвращение инцидентов, а также киберустойчивость. Циклы подготовки атак и обновления ИИ-моделей будут ускоряться, защита будет требовать всё больше ИИ-компетенций, а циклы Деминга — протекать быстрее. Нас неминуемо ждёт развитие законодательства и стандартов в области ИИ в критических инфраструктурах. С точки зрения технологий — развитие XDR-платформ с встроенным ИИ и расцвет рынка специализированного железа для обучения и инференса моделей. ИИ сделает защиту предиктивной, адаптивной и персонализированной, но создаст и новую гонку вооружений. Ключевым навыком станет умение задавать ИИ правильные вопросы и проверять его ответы. Эволюция ИИ в кибербезопасности — это переход от «защиты периметра» к «защите доверия».
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис», прогнозирует появление гибридных архитектур, где правила и модели работают совместно, компенсируя ограничения друг друга. В процессах уже наблюдается внедрение MLOps — мониторинг дрейфа данных, отслеживание качества работы моделей, регулярное дообучение. Требования к квалификации специалистов возрастут, а фокус сместится с разбора шума на сложные расследования.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда»:
«Маркетинговый взрыв должен закончиться, и производители начнут упоминать ИИ там, где действительно необходимо, а не в каждой презентации. На процессы влияние, на мой взгляд, минимально — профессия специалиста по безопасности слишком творческая, чтобы рассчитывать в ней исключительно на автоматизированные средства, пусть и интеллектуальные».
Кирилл Филимонов, специалист по анализу защищённости ПК «РАД КОП»:
«Специалисты превратятся из непосредственных исполнителей в операторов ИИ для выполнения задач и разрешения галлюцинаций. Технически сложные, но рутинные задачи будут автоматизированы, а творческие продолжат решаться людьми. Процессы будут ускоряться: багбаунти, пентесты, разработка PoC-эксплойтов — всё это автоматизируется с помощью ИИ. Технологии будут больше ориентироваться на интеграцию с языковыми моделями. Уже сейчас мы видим, как появляются плагины для сред разработки, для пентест-инструментов, для средств аналитики. Технологии станут более автономными, снизится, но не исключится роль человека».
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ, подчеркнул, что теперь ИБ-специалистам нужно контролировать, как в компании применяют ИИ, и оценивать эти риски. В части процессов ИИ уже неплохо автоматизирует «бумажную безопасность» — регламенты и политики. Он рекомендовал включить ИИ в модель угроз и держать его в фокусе внимания, а также предположил рост спроса на специалистов по безопасности разработки ИИ-решений.
Заключение
Искусственный интеллект уже стал повседневной реальностью как для атакующих, так и для защитников. Эксперты фиксируют общий сдвиг: порог входа для злоумышленников снизился, атаки стали дешевле и изощрённее, а классический сигнатурный подход системно отстаёт от времени жизни атаки. Фишинг, социальная инженерия и OSINT-разведка вышли на качественно новый уровень за счёт генеративных моделей — при этом принципиально новых типов атак ИИ пока не создал.
На стороне защиты ИИ уже приносит ощутимую пользу, но только при чётком понимании его границ. Все опрошенные специалисты сходятся в главном: ИИ — ассистент аналитика, а не его замена; последнее слово всегда остаётся за человеком. Внедрение автоматизации должно быть поэтапным и подконтрольным — от обогащения алертов к более критичным действиям, с обязательной возможностью отката. Без качественных данных, мониторинга деградации моделей и интерпретируемости решений ИИ-инструмент рискует стать источником ложной уверенности.
При этом ожидания от ИИ в отрасли далеко не однородны. Часть экспертов прогнозирует замещение рутинных ролей, прежде всего аналитиков первой линии SOC и рост спроса на гибридных специалистов, совмещающих экспертизу в безопасности и навыки работы с ML. Другие указывают, что профессия ИБ-специалиста слишком творческая для полной автоматизации, а серьёзные заказчики пока не готовы доверять ИИ что-то большее, чем рутинные операции. Вероятно, истина в комбинации этих позиций: специалисты будут превращаться из непосредственных исполнителей в операторов и верификаторов ИИ, а не исчезать.
Одно очевидно: игнорировать ИИ как фактор в модели угроз и в процессах защиты уже невозможно. Конкурентное преимущество получат те, кто научится использовать ИИ для усиления человеческой экспертизы, сохраняя при этом критическое мышление и контроль над алгоритмами.
Автор: CISOCLUB Редакция CISOCLUB. Официальный аккаунт. CISOCLUB - информационный портал и профессиональное сообщество специалистов по информационной безопасности.