Slowpoke news

Регистрация | Войти

Курсы валют

    Обновить данные

    Погода

    Прогноз погоды

    22 ℃

    UNKNOWN

    50%

    Влажность

    15 км/ч

    Ветер

    Ошибка в имени города

    Безопасность

    22 сентября 2025 г.

    Обнаружено вредоносное ПО MalTerminal на базе GPT-4, способное создавать вымогатели и обратные шеллы


    Исследовательская группа SentinelLABS компании SentinelOne сообщила о выявлении одного из первых образцов вредоносного программного обеспечения, использующего возможности языковых моделей. Программа, получившая название MalTerminal, продемонстрировала, как технологии на базе GPT-4 могут применяться для генерации кода вымогателей и средств удалённого доступа. Результаты исследования были представлены на конференции по информационной безопасности LABScon 2025.
    Эксперты отмечают, что MalTerminal — это ранний пример новой категории угроз: вредоносных программ, непосредственно интегрированных с LLM (large language models). Эта категория уже включает в себя такие инструменты, как LAMEHUG (он же PROMPTSTEAL) и PromptLock, которые используют LLM не только для помощи в написании вредоносного кода, но и как часть своей внутренней логики.
    Исследование показало, что MalTerminal содержит интеграцию с устаревшей точкой доступа OpenAI API, использовавшейся до ноября 2023 года. Это позволяет предположить, что образец был разработан ранее этой даты, делая его, по мнению исследователей Алекса Деламотта, Виталия Камлюка и Габриэля Бернадетта-Шапиро, самым ранним известным примером вредоносного ПО с поддержкой LLM.
    Программа распространялась в виде исполняемого файла для Windows и набора Python-скриптов. Пользователю предлагается выбрать, какую вредоносную функциональность он хочет активировать — генерацию программы-вымогателя или обратного шелла. Таким образом, MalTerminal превращается в конструктор атак, способный генерировать нужный тип угрозы в зависимости от условий.
    Кроме основной вредоносной нагрузки, в составе обнаружен инструмент под названием FalconShield. Он предназначен для анализа Python-файлов и использует GPT-модель для определения их вредоносности. В случае подтверждения — инициирует генерацию отчёта с характеристикой угрозы.
    Исследователи считают, что эта функция может быть частью инструментария Red Team или использоваться как защита от несанкционированного использования разработанного кода.
    В SentinelOne заявляют, что интеграция LLM в архитектуру вредоносного ПО меняет ландшафт угроз. Появление динамических систем, способных на лету создавать вредоносную логику или команды, требует пересмотра подходов к анализу и защите. Такие угрозы могут адаптироваться под конкретные сценарии, делая классические средства защиты менее эффективными.

    Автор: Артем Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.