Slowpoke news

Регистрация | Войти

Курсы валют

    Обновить данные

    Погода

    Прогноз погоды

    22 ℃

    UNKNOWN

    50%

    Влажность

    15 км/ч

    Ветер

    Ошибка в имени города

    Безопасность

    30 апреля 2026 г.

    В России планируют запустить соответствующий традиционным ценностям ИИ


    В России планируют развивать суверенные и доверенные модели искусственного интеллекта. Об этом 29 апреля на пленарном заседании Совета Федерации сообщил член Комитета Совета Федерации по экономической политике Иван Евстифеев. Одна часть будущей ИИ-линейки должна соответствовать российским ценностям, а другая получит допуск к самым ответственным отраслям после специальной проверки.
    На заседании Совета Федерации Иван Евстифеев рассказал об итогах недавних совещаний с определением 3 направлений работы. Первые 2 связаны с созданием суверенных и доверенных моделей искусственного интеллекта. По словам Ивана Евстифеева, суверенные модели должны стать отечественными ИИ-системами, соответствующими принятой в стране ценностной рамке.
    Доверенные модели Иван Евстифеев описал как более строгий класс ИИ, прошедший проверку профильных служб и получивший разрешение на работу в зонах повышенной ответственности. Среди возможных сфер применения подобных систем выделены конкретные направления:

    управление электростанциями и энергетической инфраструктурой;
    помощь в постановке медицинских диагнозов;
    обработка персональных данных граждан;
    работа с критическими отраслями экономики.

    Интересно, что государство впервые открыто разделяет ИИ-системы по уровням допуска, фактически копируя логику секретности у обычных документов.

    Звучит как попытка разрезать ИИ-рынок на несколько уровней допуска. Обычные модели смогут решать массовые задачи, а системы для чувствительных областей пройдут отдельную проверку. Логика тут понятная. Один уровень риска у чат-бота для написания текстов и совсем другой у алгоритма для работы в энергетике, медицине или сервисах с персональными данными.
    Отдельный блок работы касается ответственности за вред, причинённый искусственным интеллектом. Иван Евстифеев сообщил, что комитет вместе с экспертным сообществом и профильными министерствами проработает правила распределения ответственности. В качестве примеров спорных ситуаций названы ДТП с автономным такси и неправильный диагноз от медицинской нейросети.
    Этот пункт может стать самым сложным для будущего регулирования. При ошибке ИИ возникает естественный вопрос о виновной стороне:

    разработчик модели и архитектуры;
    владелец сервиса и его оператор;
    медицинская организация или клиника;
    производитель оборудования с нейросетью;
    человек, принявший итоговое решение.

    Для рынка это не абстрактная юридическая тема, а будущая основа страхования, договоров, сертификации и допуска ИИ к критически важным процессам.
    Обсуждение новых категорий ИИ идёт уже после серьёзной переработки законопроекта об искусственном интеллекте. Ранее сообщалось об удалении из документа самых спорных ограничений для разработчиков. Обновлённая версия не требует обучать модели только на локальных данных, а правила создания ИИ-систем стали мягче для бизнеса и частных специалистов.
    Представитель аппарата вице-премьера Дмитрия Григоренко сообщил, что в переработанной редакции исчезли требования к наборам данных. Разработчики получат возможность использовать для обучения любые доступные источники. Для отрасли это значимый поворот, поскольку рынок ранее жёстко критиковал идею ограничить обучение одними лишь данными российского происхождения.
    Бизнес ранее указывал на нехватку таких данных для конкурентного уровня моделей. При сохранении прежних ограничений разработчики столкнулись бы с серьёзными трудностями:

    падение качества обученных моделей;
    замедление научных исследований в области ИИ;
    сокращение возможностей для новых продуктов;
    отставание российских ИИ-систем от зарубежных;
    отток специалистов в более свободные юрисдикции.

    В новой версии акцент сместился с происхождения данных на юридическое соответствие и назначение самой модели.
    Путь законопроекта всё равно остаётся непростым. Ранее Совет по кодификации при президенте отклонил разработанный Минцифры проект и назвал его юридически слабым. Эксперты Совета сочли, что документ противоречит действующим нормам, не имеет ясной предметной области и во многом повторяет уже работающее регулирование.

    Совет по кодификации фактически признал законопроект Минцифры по ИИ и нейросетям пустым, заявив об отсутствии у него рабочего механизма применения.

    По оценке членов Совета, проект создавал параллельную систему правил для сфер с уже работающим регулированием. После удаления повторов в документе оставались определения и общие формулировки без понятного механизма применения. Для сложного направления вроде искусственного интеллекта это серьёзная претензия, поскольку без рабочих процедур любые категории вроде «суверенный» или «доверенный» рискуют остаться красивыми ярлыками.
    Регуляторам теперь предстоит собрать более практичную конструкцию. У государства есть несколько одновременных задач:

    получить отечественные ИИ-системы для важных отраслей;
    снизить зависимость от внешних технологий и платформ;
    сохранить темп разработки внутри страны;
    не отпугнуть бизнес жёсткими правилами;
    упростить работу компаниям с уже внедрённым ИИ.

    Независимый ИИ-эксперт заявил CISOCLUB по этому поводу: «Обсуждение суверенных и доверенных моделей показывает, что ИИ в России переходит из экспериментальной зоны в сферу формального допуска и ответственности. Главный вопрос для бизнеса теперь не в появлении новых категорий, а в понятности и выполнимости правил. При прозрачных критериях допуска рынок получит ориентиры для работы с критически важными задачами. При размытых формулировках компании снова столкнутся с неопределённостью, а внедрение ИИ в ответственных сферах будет идти медленнее».

    Автор: Артем Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.