Slowpoke news

Регистрация | Войти

Курсы валют

    Обновить данные

    Погода

    Прогноз погоды

    22 ℃

    UNKNOWN

    50%

    Влажность

    15 км/ч

    Ветер

    Ошибка в имени города

    Безопасность

    12 мая 2026 г.

    ИИ-слоп добрался до теневых форумов и начал раздражать самих хакеров


    Генеративный ИИ заполнил теневые форумы потоком слабых публикаций, и теперь на это жалуются даже хакеры. По данным Wired, участники таких площадок недовольны машинными текстами, ошибочными инструкциями и постами, где за опыт выдают пересказ из нейросети.
    Исследователи из университетов Эдинбурга, Кембриджа и Стратклайда изучили 97 895 обсуждений об ИИ на подпольных форумах с момента запуска ChatGPT в 2022 году до конца 2025 года. Выяснилось, что интерес к нейросетям у злоумышленников сохранился, но отношение к машинному контенту стало намного холоднее.

    на форумах стало больше шаблонных публикаций;
    новички выдают машинные ответы за личный опыт;
    участники жалуются на слабые инструкции;
    доверие к авторам стало снижаться;
    полезные разборы труднее найти среди шума.

    Любопытно, что даже в теневой среде люди ждут живого опыта, а не одинаковых текстов из генератора

    Один из авторов работы Бен Кольер отметил, что участники форумов начали замечать рост ИИ-публикаций и воспринимают их как помеху. Главная претензия связана не с самим фактом применения нейросетей, а с качеством. Посты часто короткие, поверхностные, без проверки команд и без понимания реальных технических деталей.
    Wired приводит жалобу участника Hack Forums, который возмутился тем, что многие пишут темы через ИИ, хотя сами не могут составить пару простых предложений. Для обычных соцсетей это уже знакомая история, но на подпольных площадках она выглядит показательнее. Там репутация автора имеет прямую цену.

    автор с опытом ценится выше длинного текста;
    ошибка в инструкции может стоить денег;
    слабый код может раскрыть инфраструктуру;
    ботоподобные ответы мешают проверке людей;
    машинный стиль снижает доверие к теме.

    Раздражение вызывают не только тексты. Участники закрытых площадок жалуются на рост числа ботов и аккаунтов, которые создают видимость активности. Для таких сообществ это болезненно, потому что они держатся на личной репутации, проверенных связях, обмене рабочими инструментами и понимании, кто реально умеет работать.
    ИИ-слоп ломает эту внутреннюю систему. Если любой новичок может за минуту создать длинную инструкцию с уверенным тоном, форуму сложнее отличать опытного участника от человека, который просто скопировал машинный ответ. В результате сильные авторы могут уходить в закрытые чаты и малые группы, где мусорные публикации быстрее отсеиваются.

    Хакеры готовы пользоваться ИИ против жертв, но не хотят доверять ИИ-коду, когда под угрозой их собственная анонимность

    Иэн Грей из Flashpoint указывает, что опытные злоумышленники знают слабые места коммерческих ИИ-моделей и умеют обходить защитные ограничения. При этом они осторожно относятся к инструментам, собранным с помощью нейросетей и опубликованным на форумах. Такой код может содержать ошибки, уязвимости и следы, которые раскроют серверы, токены, логины или внутреннюю логику операций.

    ИИ помогает писать фишинговые тексты;
    нейросети ускоряют рутину с кодом;
    перевод и редактирование стали проще;
    генерация идей стала доступнее новичкам;
    доверие к готовым ИИ-инструментам остаётся низким.

    Парадокс получился довольно жёсткий. Злоумышленники используют нейросети как ускоритель, но не хотят строить на них собственную инфраструктуру. Для них плохой код не просто раздражающая недоработка. Это риск потерять доступ, деньги, анонимность или стать целью конкурентов.
    Похожая проблема давно видна в легальной разработке. ИИ помогает быстрее писать код, но может добавлять уязвимости, неверные зависимости и странные архитектурные решения. На теневых форумах конфликт проявился грубее. Там спорят не о красоте стиля, а о том, может ли машинная заготовка привести к провалу операции.
    Исследование также показывает, что генеративный ИИ пока не создал армию автономных суперхакеров. Ранее Кембриджский университет уже отмечал, что нейросети чаще применяются для спама, фишинга, генерации контента и помощи опытным программистам. Массового скачка к сложным самостоятельным атакам исследователи не увидели.

    слабый ИИ-текст помогает массовому спаму;
    фишинговые письма стало проще производить пачками;
    примитивные схемы быстрее тиражируются;
    сложные атаки всё ещё требуют опыта;
    реальные навыки остаются ценнее машинного пересказа.

    По словам экспертов CISOCLUB, эта новость с жалобами хакеров показывает, что ИИ меняет не только инструменты атакующих, но и культуру подпольных сообществ. Нейросети помогают ускорять рутину, но одновременно засоряют площадки текстами без опыта, ошибочными инструкциями и кодом, которому сами злоумышленники не готовы доверять.
    ИИ-слоп становится проблемой не только для соцсетей, блогов и поисковой выдачи. Теперь он мешает даже тем форумам, где за слабую информацию можно потерять деньги, доступ или свободу. Для защитников это сигнал, что угроза ИИ связана не только с мифическими суперхакерами, а с масштабированием шума, фишинга, плохого кода и фальшивой экспертизы.

    Автор: Артем Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.