Slowpoke news

Регистрация | Войти

Курсы валют

    Обновить данные

    Погода

    Прогноз погоды

    22 ℃

    UNKNOWN

    50%

    Влажность

    15 км/ч

    Ветер

    Ошибка в имени города

    Безопасность

    17 марта 2026 г.

    В России готовят запрет на манипуляции людьми через системы ИИ


    В российском законодательстве может появиться запрет на использование искусственного интеллекта для скрытого воздействия на решения человека. Соответствующие нормы содержатся в законопроекте об ИИ, который подготовило Минцифры России и который сейчас проходит процедуру межведомственного согласования.
    Как сообщили журналисты «Известий», документ обязывает разработчиков и операторов систем искусственного интеллекта предупреждать пользователей о недопустимости применения нейросетей для манипулирования поведением людей или использования их уязвимых состояний.
    В тексте проекта закона говорится, что под эксплуатацией уязвимостей понимается использование особенностей человека для воздействия на его решения или действия. В документе упоминаются различные факторы, которые могут использоваться для такого давления. Речь может идти о возрасте пользователя, его социально-экономическом положении, психологическом состоянии или других личных характеристиках.
    По мнению ведущего эксперта по искусственному интеллекту «Университета 2035» Ярослава Селиверстова, запрет в первую очередь касается компаний и организаций, которые внедряют технологии искусственного интеллекта в свои продукты. Ярослав Селиверстов сообщил, что системы ИИ не должны проектироваться таким образом, чтобы подталкивать человека к решениям через скрытое давление.
    Эксперт пояснил, что современные алгоритмы способны влиять на поведение пользователя за счёт анализа данных и персонализации контента. Система может подбирать сообщения, интерфейсы или рекомендации таким образом, чтобы повысить вероятность определённого действия.
    По словам Ярослава Селиверстова, подобные технологии уже применяются в различных цифровых сервисах. Они могут использоваться в рекламных механизмах, системах рекомендаций, политических коммуникациях и чат-ботах. За счёт анализа поведения пользователя такие алгоритмы способны усиливать доверие к информации, создавать ощущение срочности или вызывать эмоциональную реакцию.
    Разработчики законопроекта считают, что появление подобных инструментов требует отдельного регулирования. Новые правила должны ограничить использование искусственного интеллекта для скрытого давления на людей и обеспечить более прозрачное применение алгоритмов в цифровых сервисах.

    Автор: Артем Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.