Slowpoke news

Регистрация | Войти

Курсы валют

    Обновить данные

    Погода

    Прогноз погоды

    22 ℃

    UNKNOWN

    50%

    Влажность

    15 км/ч

    Ветер

    Ошибка в имени города

    Безопасность

    12 марта 2026 г.

    Сколько текстов в профессиональных медиа по ИБ написано с помощью ИИ?


    Редакция CISOCLUB провела масштабное исследование: проанализировала более шести тысяч публикаций внешних авторов на признаки использования генеративного ИИ. В выборку вошли экспертные статьи, корпоративные блоги и пресс-релизы компаний из сферы информационной безопасности и ИТ. Каждый текст оценивался по 20 лингвистическим признакам.

    Проанализировано публикаций
    6 442
    с января 2023 года

    Написаны людьми
    97,1%
    6 256 публикаций

    Получили метку «ИИ»
    0,6%
    38 публикаций

    Предпосылки
    После запуска ChatGPT (OpenAI) в конце 2022 года генеративные модели быстро проникли в рабочие процессы. По данным различных опросов, от 30 до 50% специалистов хотя бы раз использовали ИИ при подготовке рабочих текстов. При этом надежных инструментов для обнаружения такого использования до сих пор нет, а существующие автоматические детекторы регулярно ошибаются — особенно на русскоязычных текстах.
    Мы поставили задачу иначе. Вместо автоматического детектора применили экспертный лингвистический анализ каждого текста по расширенному набору признаков. Материалом для исследования послужила реальная база публикаций CISOCLUB.ru — одного из крупнейших русскоязычных порталов по информационной безопасности.
    Как мы проверяли
    Исследование охватило публикации с 1 января 2023 года — с момента массового распространения генеративных моделей. Тексты редакции CISOCLUB (около 11 700 записей) были исключены из анализа. Проверялся только контент внешних авторов: вендоров, интеграторов, консалтинговых компаний и независимых экспертов.
    Тип контентаКоличествоХарактеристикаЭкспертные статьи751Обзоры решений, аналитика угроз, практические рекомендацииКорпоративные блоги3 592Публикации вендоров: анонсы продуктов, результаты исследований, мненияПресс-релизы3 194Новости компаний: события, партнерства, релизы продуктовИтого6 442Выборка исследования по типам контента.
    Методология анализа
    Публичные детекторы ИИ-текстов (GPTZero, ZeroGPT и другие) разработаны в основном для английского языка и на русскоязычных текстах работают нестабильно. Поэтому мы выбрали другой подход: экспертный лингвистический анализ с помощью языковой модели Claude Opus 4.6 (Anthropic).
    Каждый текст проверялся по 20 лингвистическим сигналам, разнесенным по четырем группам. Для длинных текстов (а среди экспертных статей более половины превышали 20 000 символов) применялась техника анализа по фрагментам: текст разбивался на окна по 4–5 тысяч символов, каждое оценивалось отдельно, затем результаты объединялись.
    Сигналы имеют разный вес:

    Сильные сигналы ИИ (+2 балла): шаблонные обороты, характерные для ChatGPT; идеально ровная структура без авторских отступлений; обобщенные формулировки без конкретных примеров; нумерованные списки как основной способ подачи материала.
    Умеренные сигналы ИИ (+1 балл): чрезмерная гладкость текста, энциклопедическая подача, одинаковая глубина проработки всех тем.
    Сильные сигналы человека (−2 балла): личный опыт и реальные кейсы, аргументированная авторская позиция, отраслевой сленг, ссылки на конкретные CVE, инциденты и нормативные акты.
    Умеренные сигналы человека (−1 балл): неравномерная глубина изложения, стилистические шероховатости, ссылки на собственные предыдущие публикации.

    По итоговому балансу текст получает один из вердиктов: human (написан человеком), ai (сгенерирован ИИ), hybrid (смешанный контент) или один из промежуточных типов — hybrid_t1 и hybrid_t2 — для пограничных случаев. Каждому вердикту присваивается уровень уверенности от 0 до 100%.
    Ограничения метода. Модель анализирует лингвистические паттерны, а не устанавливает факт использования ИИ. Некоторые авторы от природы пишут структурированно и гладко. Тексты по кибербезопасности содержат стандартные формулировки из ГОСТов и нормативных актов, которые могут ложно восприниматься как сгенерированные. Поэтому в исследовании используется формулировка «получил метку ai», а не «написан ИИ».
    Результаты
    Методология описана, выборка сформирована — переходим к результатам. Главный вопрос: какая доля текстов внешних авторов демонстрирует признаки генерации?

    97,1% проанализированных публикаций написаны людьми. ИИ-сгенерированный контент составил менее 1%, гибридный (с заметными следами ИИ-обработки) — около 2%.

    ВердиктКоличествоДоляСр. AI-баллСр. Human-баллУверенностьhuman6 25697,1%0,25,375%hybrid (все подтипы)1412,2%4,23,662%ai380,6%7,90,876%пропущено70,1%———Распределение вердиктов по 6 442 публикациям.
    У текстов с вердиктом «ai» средний AI-балл составил 7,9, а Human-балл — всего 0,8. Это означает, что такие тексты практически не содержат признаков живого авторства. У гибридных материалов баллы ближе к середине, что подтверждает их промежуточный характер.
    Распределение по типам контента
    Общие 97,1% — полезный ориентир, но он скрывает главное: три типа контента ведут себя совершенно по-разному.

    Статьи

    76,6%

    4,8%

    751

    Блоги

    97,5%

    3 592

    Пресс-релизы

    100%

    3 194

    human
    ai
    hybrid
    hybrid_t1
    hybrid_t2

    Пресс-релизы (100% human). Ни один из 3 194 корпоративных пресс-релизов не получил метку «ai» или «hybrid». Пресс-релизы содержат конкретные названия продуктов и версий, имена экспертов с должностями, точные цифры и даты, ссылки на нормативные документы. Все это надежные маркеры человеческого текста, которые генеративные модели воспроизводят плохо.
    Корпоративные блоги (97,5% human). Похожая картина: вендорские блоги наполнены отраслевой конкретикой. Из 3 592 публикаций только 8 получили метку «ai» (это энциклопедические обзоры без авторского голоса) и 75 оказались в гибридной зоне.
    Экспертные статьи (76,6% human). Здесь ситуация сложнее. Почти четверть материалов (23,4%) попала в зону «гибрид» или «ИИ». Экспертные статьи требуют больших усилий на подготовку, и именно здесь соблазн привлечь генеративную модель выше всего. При этом полноценных AI-текстов немного — 4,8% (36 статей), остальное — гибридные варианты с разной степенью участия ИИ.
    Кто использует ИИ: феномен нескольких авторов
    Экспертные статьи — категория с самой высокой долей ИИ-контента. Но равномерно ли распределены AI-вердикты среди авторов? Ответ удивляет.

    73% всех AI-вердиктов (28 из 38) приходятся на одного автора. Использование ИИ — не массовое явление, а практика отдельных компаний.

    Компания-авторaihybridhybrid_t1hybrid_t2ВсегоКомпания A28125550Компания B359724Компания C0051823Остальные авторы742132082Распределение non-human вердиктов по авторам. Названия компаний скрыты.
    Компания A выделяется на общем фоне: ее тексты демонстрируют классические признаки генерации — шаблонные вводные абзацы, идеальная структура нумерованных списков, обобщенные формулировки без привязки к конкретным продуктам или кейсам.
    У компании B несколько текстов получили вердикт «ai», но основная масса попала в гибридную зону. У компании C ни один текст не определен как полностью сгенерированный, однако большинство материалов несут следы редактирования или доработки с помощью ИИ — текст читается гладко, но в нем не хватает авторских деталей и живых примеров.
    Динамика по годам
    Кто использует ИИ — выяснили. Следующий вопрос: как менялась ситуация со временем? Для ответа возьмем экспертные статьи — единственную категорию, где есть достаточно non-human контента для анализа динамики.
    ПериодВсего статейhumanaihybrid (все типы)Доля non-human20231287484642,2%2024171139171518,7%2025325269114517,2%2026 (янв–мар)1279303426,8%Динамика доли non-human контента в экспертных статьях.

    42,2%
    2023

    18,7%
    2024

    17,2%
    2025

    26,8%
    2026

    В 2023 году 42% экспертных статей попали в зону «гибрид» или «ИИ» — это был пик «волны ChatGPT», когда авторы массово экспериментировали с генерацией. К 2024 году доля non-human контента упала до 19%, а в 2025 году стабилизировалась на уровне 17%. Однако в начале 2026 года произошел рост до 27%.
    При этом изменился характер использования ИИ. Грубая генерация (вердикт «ai») практически исчезла: 17 случаев в 2024 году, 11 в 2025-м и ноль в 2026-м. Классический «hybrid» тоже сошел на нет — с 46 текстов в 2023 году до нуля в 2026-м. Зато выросли промежуточные категории hybrid_t1 и hybrid_t2 — тексты, где ИИ использовался для структурирования, стилистической правки или генерации отдельных фрагментов.
    Что стоит за этой динамикой:

    Грубая генерация уходит. Авторы перестали публиковать тексты, целиком написанные ChatGPT (и аналогами) — это стало заметно и репутационно рискованно.
    ИИ как инструмент, а не как автор. Модели все чаще используются для подготовки черновиков, структурирования и редактирования, а не для генерации готового текста
    Модели стали лучше. ChatGPT 5.4, Opus 4.6 и другие LLM генерируют более естественный текст, который сложнее отличить от человеческого. Часть текстов, отмеченных как hybrid_t2, может быть результатом улучшения моделей, а не изменения практик авторов

    Насколько можно доверять результатам
    Любой метод детекции может ошибаться. Чтобы оценить точность, мы провели перекрестную верификацию: 30 случайных текстов (по 10 из каждого типа контента) были повторно проанализировано независимо.
    Тип контентаСовпаденийТочностьЭкспертные статьи7 из 1070%Корпоративные блоги10 из 10100%Пресс-релизы10 из 10100%Итого27 из 3090%Результаты перекрестной верификации.
    Три расхождения пришлись на пограничные случаи в экспертных статьях — тексты на границе категорий «human» и «hybrid» с невысокой уверенностью модели (68%). Грубых ошибок (перепутать «human» и «ai») выявлено не было.
    Что важно учитывать
    Между полностью человеческим и полностью машинным текстом лежит целый спектр. Автор может использовать ИИ для генерации плана, написания отдельных абзацев, переформулирования или стилистической правки, и точно установить границу невозможно. Средний уровень уверенности модели составил 75%, что оставляет зону неопределенности примерно в четверти случаев.
    Кроме того, рост категорий hybrid_t1 и hybrid_t2 в 2025–2026 годах может быть связан не только с изменением практик авторов, но и с улучшением генеративных моделей.
    Главные выводы
    Шесть с лишним тысяч текстов проанализировано, данные разложены по типам контента, авторам и годам. Что из этого следует?

    97,1%
    Публикаций написаны людьми. ИИ-контент — менее 1%.

    73%
    AI-вердиктов приходятся на одну компанию. Это не системная проблема.

    42% → 17%
    Грубая ИИ-генерация исчезла, но тонкое использование ИИ растет.

    100%
    Пресс-релизов написаны людьми. Ни одного AI-текста.

    ИИ-контент в профессиональных медиа по ИБ — редкость на текущий момент. Из 6 442 публикаций только 38 (0,6%) получили метку «ai». С учетом гибридного контента — 179 публикаций (2,8%). 97,1% текстов написаны людьми.
    Использование ИИ сконцентрировано у отдельных авторов. Почти три четверти AI-вердиктов приходятся на одну компанию. Это не системная проблема отрасли, а практика конкретных редакций.
    Пресс-релизы и корпоративные блоги практически не затронуты. Фактологическая насыщенность этих форматов (продукты, версии, имена, CVE, статистика и пр.) делает генерацию через ИИ нецелесообразной.
    Экспертные статьи — основная зона риска. Именно здесь сосредоточен почти весь ИИ-контент. Грубая генерация сошла на нет к 2026 году, но доля текстов с признаками тонкого использования ИИ (hybrid_t1, hybrid_t2) выросла.
    Специалисты по ИБ продолжают писать сами. Глубокая экспертиза, специфическая терминология, необходимость ссылаться на реальные инциденты и нормативную базу — все это пока не позволяет генеративным моделям заменить живого автора в этой области.

    Исследование подготовлено редакцией CISOCLUB. Период анализа: 1 января 2023 — 12 марта 2026. Объем выборки: 6 442 уникальные публикации. Типы контента: экспертные статьи (751), корпоративные блоги (3 592), пресс-релизы (3 194). Публикации редакции CISOCLUB (около 11 700 записей) исключены. Инструмент анализа: Claude Opus 4.6 (Anthropic) — экспертная оценка по 20 лингвистическим сигналам. Верификация: перекрестная проверка 30 случайных текстов, точность совпадения — 90%.

    Автор: CISOCLUB Редакция CISOCLUB. Официальный аккаунт. CISOCLUB - информационный портал и профессиональное сообщество специалистов по информационной безопасности.