Slowpoke news

Регистрация | Войти

Курсы валют

    Обновить данные

    Погода

    Прогноз погоды

    22 ℃

    UNKNOWN

    50%

    Влажность

    15 км/ч

    Ветер

    Ошибка в имени города

    Безопасность

    18 февраля 2026 г.

    В России хотят запретить ИИ принимать окончательные решения в медицине, суде и школе


    В российском законодательстве может появиться норма, обязывающая сохранять за человеком последнее слово при использовании искусственного интеллекта в социально значимых областях — здравоохранении, судопроизводстве, образовании и общественной безопасности. Соответствующие предложения собраны в материалах правительства к будущему законопроекту о регулировании ИИ, а сам документ Минцифры должен быть передан на согласование к концу февраля.
    Член комитета Госдумы по информационной политике и федеральный координатор проекта «Цифровая Россия» Антон Немкин перечисляет риски, которые возникают без подобного требования.

    Первый — дискриминация и алгоритмические искажения в ситуациях, когда модель обучена на неполных или предвзятых данных.
    Второй — размытая ответственность за ошибку, где непонятно, кто отвечает — разработчик, оператор или государство.
    Третий — падение доверия граждан к цифровым сервисам, если решения, влияющие на судьбу конкретного человека, воспринимаются как автоматические и не подлежащие оспариванию.

    В начале февраля Reuters сообщало о реальных последствиях бесконтрольного применения ИИ в хирургии — навигационная система TruDi, применяемая в медицинском оборудовании, предположительно передавала хирургам неверные данные о положении инструментов во время операций на голове.
    В период с конца 2021 по ноябрь 2025 года травмы получили не менее десяти пациентов. Это уже не кейс из учебника по этике ИИ — это уголовная хроника.
    Директор Института исследований интернета Карен Казарян считает, что доверять нейросетям проверку работ в школах и университетах преждевременно — накопленный опыт показывает, что ошибки носят массовый характер. Оценка сочинения или решения задачи алгоритмом без финального участия живого педагога — риск, который пока явно превышает удобство автоматизации.
    Примечательно, что законопроект появляется именно сейчас, когда ИИ-инструменты проникают в государственные и социальные институты по всему миру. Многие страны уже столкнулись с последствиями этого процесса — алгоритмы выносили предвзятые решения по кредитам, ошибались при медицинской диагностике, генерировали фиктивные судебные прецеденты. Россия, судя по всему, пытается зафиксировать границы до того, как подобные случаи станут системой, а не исключением.

    Автор: Артем Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.