Slowpoke news

Регистрация | Войти

Курсы валют

    Обновить данные

    Погода

    Прогноз погоды

    22 ℃

    UNKNOWN

    50%

    Влажность

    15 км/ч

    Ветер

    Ошибка в имени города

    Статьи

    29 августа 2024 г.

    Искусственный интеллект в кибератаках


    Применение искусственного интеллекта для подготовки и проведения кибератак с каждым месяцем становится все актуальнее. Еще в 2023 году эксперты отмечали рост вовлечения ИИ в преступные схемы. Сегодня же такие технологии уже широко используются. В данном материале Павел Шрамко, консультант по ИБ RTM Group, расскажет подробнее о том, как киберпреступники задействуют роботов и к чему готовиться в ближайшем будущем.
    Возможности ИИ в кибератаках
    Использование ИИ в кибератаках на данный момент имеет вспомогательную роль – хакеры применяют его главным образом для облегчения и удешевления атак. Ниже расскажем, в каких направлениях фиксируется наибольшая активность.
    Генерация изображений и видео для повышения привлекательности уловок – на основании фото и видео, взятых из открытых источников, многие нейросети способны собрать дипфейки. Раньше на такую работу могло потребоваться около недели (на одно лицо), а теперь ИИ делает ее за несколько часов.
    Создание поддельных аудиозаписей с чужим голосом – такой функционал уже давно рассматривался как одна из первых угроз информационной безопасности. Важным событием здесь стало появление в 2017 году сервиса lyrebid, который в течение минуты моделировал голос собеседника. Сегодня же таких сервисов десятки, да и справляются они быстрее и эффективнее.
    Сбор с помощью ИИ информации из больших открытых хранилищ данных – здесь речь идет как о поиске всех данных о человеке в различных базах, так и о сортировке информации об объектах атаки. В первом случае злоумышленник собирает всю массу сведений о персоне и обучает ИИ искать нужные. Во втором – перекладывает часть своих задач, которые можно автоматизировать, на ИИ. Об этом мы еще поговорим далее.
    Техническая сторона вопроса
    Сразу необходимо сказать, что на данный момент ИИ не является самостоятельным инструментом, создающим новые, ранее неизвестные угрозы, а также открывающим технические уязвимости. Главное, для чего используют сегодня машинный интеллект, – это автоматизация и ускорение процессов подготовки и совершения атак. С ним фотошоп и видеомонтаж вышли на новый уровень.
    Можно ли с ИИ обмануть изображением биометрические системы аутентификации?
    Сотрудники ЦБТ, оператора Единой Биометрической системы (ЕБС) РФ сообщают, что эта угроза давно исследована и предупреждена как минимум в их системе. Но ведь в России сегодня функционирует множество индивидуальных биометрических центров, с чем активно борется законодательство. Проблема в том, что организация взаимодействия с ЕБС – это небыстрый и небесплатный процесс с множеством требований по организации защиты, аккредитации и т.д. и т.п. И вряд ли все индивидуальные центры биометрии могут похвастаться своими процедурами безопасности и гарантировать техническую защиту данных. Та же проблема актуальна и для личных смартфонов пользователей, домофонов и других сборщиков биометрии.
    Где еще могут применять ИИ киберпреступники?
    Повсеместное использование машинного интеллекта уже не за горами. Эксперты отмечают активность развития ИИ в направлении технического применения, например, для создания (модернизации) вирусных программ. Есть примеры, когда ИИ используют для видоизменения вредоносного кода с целью маскировки, путем постоянного изменения кода.
    Еще одно потенциально перспективное направление – генерация фишинговых писем. Роботы запросто могут уже написать правдоподобный текст. И злоумышленники пользуются этим, повышая привлекательность вредоносных рассылок. По статистике SlashNext, в период с 2022 по 2023 год объемов фишинговых писем вырос в 12,5 раз, что эксперты связывают именно с использованием ИИ.
    Возможно, уже скоро мы увидим в продаже коробочные решения для атаки систем и пользователей с применением ИИ. Причем со временем они будут даже недорого стоить.
    Использование чужих голосов и личностей
    При том, что сегодня каждый знает о нейросетях, создаваемой ими музыке, дизайне и т.д. и хотя бы раз видел дипфейк, мошенники, как и раньше, используют человеческие слабости, реализуя сценарии социальной инженерии. Например, в начале 2024 года злоумышленники, применив схему имитации руководителя при помощи подделки, заставили сотрудника Гонконгской компании перевести деньги, таким образом похитив около 25,5 млн долл.
    С помощью ИИ создают фальшивые сообщения, видеозаписи и фото, которые далее используются для обмана людей. В этом направлении машинный интеллект облегчает подготовку атак, с ним проще сделать их массовыми. Такие инструменты доступны – например, в интернете можно найти Deep Live Cam, NaturalReaders, play ht и многие другие.
    Технологии постоянно совершенствуются. За счет использования ИИ методы мошенников становятся все более изощренными, им удается наносить все больший ущерб. Вызывает опасения тот факт, что материала для экспериментов у них достаточно – люди сами выкладывают свои фото, видео, записи голоса в социальные сети, на разные ресурсы. И злоумышленники при необходимости могут добыть необходимый образец для копирования голоса, лица, мимики, манеры поведения многих из нас. Помимо этого, в соцсетях видны и наши контакты, взаимодействие с другими людьми, что облегчает преступникам реализацию многоступенчатых атак.
    Биометрические сервисы
    Линейка Face ID и Touch ID –
    Решения для биометрической аутентификации Apple. Одни из первопроходцев сферы широкодоступных биометрических сервисов и, по совместительству, одни из самых часто взламываемых. Раньше всех разработав систему биометрической защиты, компания Apple первая и начала вскрывать все проблемы и преимущества таких инструментов. В интернете существует множество способов обойти ту или иную версию Face ID или Touch ID. Однако Apple продолжает совершенствовать данные механизмы.
    Оплата улыбкой от Сбера –
    в августе 2023 Сбербанк выпустил сервис, позволяющий оплачивать покупки, сканируя лицо. Он доступен клиентам банка, которые заранее разрешили обработку своей биометрии. В этом сервисе используется уже упомянутая общероссийская система ЕБС, защищаемая ЦБТ. На данный момент известно о единичном сбое, когда списание денег произошло с карты близнеца клиента. О результативных взломах или обмане системы не пока сообщалось.
    Домофоны и двери –
    эти решения достаточно разнородны и индивидуальны. Оценить их защищенность и надежность можно только исследуя по отдельности биометрические алгоритмы. Т.к. многие из этих систем не предполагают постоянные обновления прошивки, такие системы достаточно быстро устаревают, что делает их уязвимыми к постоянно развивающимся атакам.
    Что делать обывателям
    Что же делать с новыми угрозами, связанными с ИИ, и какие новые меры предпринимать?
    Предоставляйте биометрию с осторожностью
    Если вы оставляете свои отпечатки пальцев или лицо для подтверждения каких-либо действий, вам необходимо знать, как ваши данные защищаются. Государственные сервисы, банки и некоторые другие компании позволяют отдельно запретить применение ваших данных. Также необходимо понимать, что организации, которые используют вашу биометрию в обход ЕБС, делают это, скорее всего, незаконно.
    Используйте дополнительные факторы аутентификации
    Ранее биометрия использовалась как дополнительный фактор аутентификации – сначала вводился пароль, вставлялся ключ, сканировалось лицо. Сегодня же практика применения биометрии для бытовых дел постепенно ведет к ее повсеместному использованию. И уже слышны опасения относительно “кражи личности”. Какими бы ни были продвинутыми системы защиты, лучше использовать сразу несколько мер.
    Повышайте бдительность
    Для обывателя самой серьезной угрозой все еще остается угроза обмана с использованием дипфейков, т.е. обычное мошенничество. Лучший способ защиты от таких атак – не совершать необдуманных решений, выждать некоторое время и проверить входные данные. Такой подход спасает как от обычных мошенников, так и от дипфейков.

    Автор: RTM Group RTM Group — ведущая консалтинговая компания в области информационной безопасности, судебной экспертизы и ИТ-права.