
ИИ, который не объясняет, а делает: Google научила Gemini кликать, вводить и работать в браузере
Компания Google DeepMind представила новую версию модели Gemini 2.5 с функцией Computer Use - это режим, в котором искусственный интеллект способен взаимодействовать с веб-интерфейсами так же, как человек: вводить текст, нажимать кнопки, выбирать пункты меню и даже перемещать элементы на экране.
Функция уже доступна разработчикам через Gemini API и облачную платформу Vertex AI, а для широкой аудитории Google открыла демонстрацию на Browserbase.
Как работает Gemini 2.5 Computer Use
В основе новой функции лежит циклический процесс взаимодействия с интерфейсом.
-
Модель получает скриншот экрана, историю предыдущих действий и задачу, например: "ввести текст в поле поиска" или "отправить форму".
-
Затем агент генерирует следующее действие, которое исполняется клиентом.
-
После выполнения команда фиксируется новым скриншотом, и цикл повторяется, пока цель не будет достигнута.
За весь процесс отвечает инструмент computer_use
, встроенный в Gemini API. Пока он оптимизирован только для браузеров, хотя Google не исключает расширения возможностей на уровне настольных приложений в будущем.
"Gemini теперь может работать в реальных интерфейсах, а не только рассуждать о них. Он видит экран, анализирует контекст и действует пошагово", — отмечают в команде Google DeepMind.
Что умеет агент
В публичных демонстрациях Gemini 2.5 Computer Use уже выполняет широкий спектр задач:
-
заполняет веб-формы и поля поиска;
-
выбирает пункты в выпадающих списках;
-
проходит авторизацию на сайтах;
-
переносит данные между разными сервисами;
-
управляет досками и визуальными интерфейсами (например, в Trello или Figma).
Особенность системы в том, что она работает с реальными веб-страницами, включая страницы за авторизацией. Это открывает путь к автоматизации корпоративных интерфейсов, CRM-систем и офисных процессов без необходимости писать интеграции.
Новый шаг в развитии агентных систем
Gemini 2.5 Computer Use — часть направления, которое Google называет "action-centric AI", то есть ИИ, способного не только понимать инструкции, но и выполнять реальные действия.
Это приближает систему к концепции универсального цифрового агента, способного работать с приложениями, сайтами и документами от лица пользователя.
В отличие от традиционных моделей, Gemini 2.5 воспринимает интерфейс визуально - как изображение, а не код, что делает его независимым от структуры сайта и пригодным даже для сложных UI.
"Мы хотим, чтобы агенты могли не просто объяснять, как выполнить задачу, а действительно делать это сами", — заявили разработчики DeepMind.
Безопасность и контроль
Поскольку Gemini теперь способен взаимодействовать с реальными интерфейсами, Google уделила особое внимание безопасности и прозрачности.
-
Каждое действие проходит внешнюю проверку на безопасность.
-
Некоторые операции (например, покупки или передача данных) требуют явного подтверждения пользователя.
-
Попытки обойти CAPTCHA или вмешаться в работу устройств блокируются автоматически.
Google подчёркивает, что система находится в статусе публичного превью - основной упор сделан на стабильность и ограниченные сценарии применения, прежде чем она получит более широкий функционал.
Потенциальные сценарии применения
Gemini 2.5 Computer Use открывает возможности для автоматизации:
-
офисных процессов - заполнение отчётов, обновление таблиц, ввод данных в корпоративные панели;
-
веб-тестирования и QA - автоматическая проверка интерфейсов и форм;
-
электронной коммерции - обновление цен, мониторинг конкурентов, оформление заказов;
-
поддержки пользователей - помощь в пошаговом решении задач прямо в интерфейсе сайта.
Для бизнеса это может стать альтернативой RPA-системам (Robotic Process Automation), но с интеллектуальной обработкой и визуальной гибкостью.
Технические детали
Характеристика | Описание |
Базовая модель | Gemini 2.5 |
API-инструмент | computer_use |
Среда работы | Web-интерфейсы (через браузер) |
Доступ | Gemini API, Vertex AI, Browserbase |
Основной принцип | Анализ скриншота + генерация действия |
Безопасность | Проверка каждой операции и подтверждение критических действий |
Ограничения и планы
Пока Computer Use не оптимизирован для управления настольными приложениями или файловыми системами, и его задачи ограничены веб-сценариями.
Однако разработчики намекают, что в будущем Gemini сможет взаимодействовать и с другими уровнями интерфейсов, включая операционные системы, IDE и корпоративные панели управления.
Google также рассматривает возможность интеграции функции в Gemini for Workspace, что позволит пользователям автоматизировать действия прямо в Gmail, Docs и Sheets.
Почему это важно
Появление Computer Use знаменует собой слияние языковых моделей и интерфейсных агентов. Раньше ИИ мог лишь описывать действия или генерировать код, теперь же он реально выполняет шаги пользователя, наблюдая за результатом через экран.
Такой подход открывает новую эру интерактивных агентов, способных действовать не в теории, а в реальных цифровых экосистемах.
"Gemini становится не просто моделью, а активным участником интерфейса — цифровым исполнителем, который работает вместо человека", — подытожили в DeepMind.
Подписывайтесь на NewsInfo.Ru