Slowpoke news

Регистрация | Войти

Курсы валют

    Обновить данные

    Погода

    Прогноз погоды

    22 ℃

    UNKNOWN

    50%

    Влажность

    15 км/ч

    Ветер

    Ошибка в имени города

    Безопасность

    12 декабря 2025 г.

    Минюст РФ предлагает разработать в 2026 году правовые меры против негативного контента, создаваемого ИИ


    В Министерстве юстиции России считают необходимым начать формирование нормативных инструментов для реагирования на негативный цифровой контент, генерируемый с помощью искусственного интеллекта. С соответствующим заявлением выступил заместитель главы ведомства Олег Свириденко на заседании комиссии Госдумы, занимающейся расследованием вмешательства иностранных государств во внутренние процессы страны.
    По словам Олега Свириденко, позитивный потенциал ИИ давно признан и не вызывает споров, однако с негативной составляющей пока нет выстроенной системы реагирования. Он подчеркнул, что вредоносный контент, создаваемый с использованием ИИ, может оказать длительное и незаметное воздействие на общество, включая молодёжь и последующие поколения, если уже сейчас не будут приняты регулирующие меры.
    В качестве примера он сослался на Китай, где уже несколько лет действует правовая база, регулирующая применение технологий искусственного интеллекта. Также, по его словам, в странах Европы внедрены аналогичные барьеры, направленные на ограничение распространения потенциально опасного или манипулятивного цифрового материала.
    Олег Свириденко подчеркнул, что российская правовая система должна пойти аналогичным путём, поскольку попытки придумать альтернативные подходы, по его мнению, не приведут к лучшим результатам.
    Он отметил, что в отличие от граждан, чья деятельность может быть явно прослежена и отнесена к нарушению закона, вред, наносимый ИИ-контентом, часто носит скрытый и комплексный характер, что усложняет процесс регулирования.
    Выступая на комиссии, представитель Минюста указал на необходимость начать эту работу уже в 2026 году. Ведомство планирует предложить концепцию правовых механизмов, которые позволят своевременно реагировать на распространение деструктивного цифрового контента, созданного с помощью нейросетей и других технологий искусственного интеллекта.
    Эксперты в сфере права отмечают, что потенциальные угрозы от ИИ-контента включают манипулирование общественным мнением, создание фальсификаций, вбросы и подмену фактов. В условиях отсутствия регулирующих рамок такие технологии могут быть использованы для влияния на политическую ситуацию, дестабилизации социальной среды или дискредитации государственных институтов.

    Автор: Артем Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.