Безопасность
30 августа 2025 г.

Хакеры всё активнее используют нейросети для кибератак и автоматизации взломов
Хакеры начали систематически применять искусственный интеллект для проведения атак, сообщили в компании Anthropic, разработчике модели Claude Opus. По данным специалистов, именно этот ИИ впервые был задействован для полной автоматизации атаки на 17 организаций, среди которых оказались больницы и службы экстренной помощи. Система самостоятельно сгенерировала тексты с требованием выкупа, рассчитала платёжеспособность жертв и варьировала суммы от 75 тыс. до 500 тыс. долларов.
Параллельно компания ESET объявила об обнаружении первого вируса, в работе которого применялись возможности искусственного интеллекта. Это подтверждает, что технологии ИИ постепенно переходят из разряда вспомогательных инструментов в полноценный элемент киберугроз.
Эксперт по нейросетям сервиса «Битрикс-24» Александр Сербул пояснил, что глубокие модели могут значительно ускорять процесс атак. По его словам, взломы всегда основывались на переборе значений, а нейросети позволяют оптимизировать такие процессы и точнее находить уязвимости. Кроме того, современные LLM-модели способны генерировать новый вредоносный код и модифицировать сигнатуры, обходя антивирусную защиту. Сербул отметил, что ранее подобные системы часто ошибались, но сейчас их точность выросла. При этом контролировать работу нейросетей, как и криптовалют или VPN, технически невозможно — можно лишь устанавливать ограничительные рамки.
В то же время нейросети можно использовать и в защитных целях. Например, LLM способны давать рекомендации по настройке серверов или выбору софта для предотвращения атак, что особенно полезно компаниям без штатных специалистов по безопасности.
Ведущий эксперт Kaspersky GReAT Татьяна Шишкова уточнила, что обнаруженный ESET вирус не был полностью автономным: злоумышленники сначала внедрили его вручную, а затем программа, используя ChatGPT от OpenAI, самостоятельно создала и запустила дополнительный код для кражи данных. По её словам, хотя разработчики ИИ внедряют ограничения против вредоносного применения, злоумышленники находят способы обхода этих барьеров.
Автор: Артем Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.