Безопасность
5 февраля 2026 г.

Google разрешит ИИ управлять пользовательскими смартфонами
Google продолжает продвигать Project Astra, направление, в рамках которого модели искусственного интеллекта получают всё больше самостоятельности при работе с пользовательскими устройствами. Как сообщает издание Android Authority, компания уже близка к тому, чтобы вывести эти возможности за пределы лабораторных тестов и применить их на обычных смартфонах.
В бета версии приложения Google 17.4.66 журналисты обнаружили упоминание функции с внутренним названием bonobo. Ожидается, что в публичном релизе она появится под названием Screen Automation, то есть автоматизация экрана. Этот инструмент должен позволить ИИ ассистенту Google Gemini напрямую взаимодействовать с интерфейсом смартфона, оформлять заказы в интернет магазинах, вызывать такси и выполнять другие прикладные задачи без ручного участия пользователя.
Пока что ссылка на новую возможность ведёт лишь на страницу справки Gemini, что говорит о ранней стадии разработки. Тем не менее сам факт появления подобных элементов в коде указывает на серьёзные планы компании по расширению роли ИИ в повседневном использовании мобильных устройств.
При первом запуске функции пользователю будет показано отдельное предупреждение. В Google заранее указывают на необходимость внимательно следить за действиями ИИ агента. Компания отмечает, что ассистент может ошибаться, а ответственность за итоговые действия и их последствия остаётся за владельцем смартфона.
Отдельный акцент делается на теме конфиденциальности. При включённой функции Keep Activity часть экранных снимков может просматриваться специально обученными модераторами. В связи с этим пользователям советуют избегать ввода платёжных реквизитов и иной чувствительной информации во время работы ИИ агента. При этом остаётся неясным, сможет ли Gemini автоматически останавливать выполнение действий в момент ввода таких данных.
Автор: Артем Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.