/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F81cc20c2d9cba8de1dbd90ffd2eacdeb.jpg)
Google навчила свій ШІ новим функціям: що він тепер вміє
Google анонсувала Gemini 2.5 Computer Use – експериментальну модель штучного інтелекту, здатну орієнтуватися у браузері так само, як користувач. Модель використовує візуальне розпізнавання й логічні висновки, щоб зрозуміти запит людини та виконати дії у вікні браузера – від натискання кнопок до введення тексту у поля форми. Про це повідомляє 24 Канал із посиланням на офіційний блог Google.
Як працює Gemini 2.5 Computer Use і чим вона відрізняється?
Така технологія особливо корисна для тестування інтерфейсів і роботи з вебсайтами, які не мають API. Подібні можливості раніше застосовувалися в проєктах Google AI Mode та Project Mariner, де автономні агенти могли, наприклад, самостійно додавати товари до кошика за списком інгредієнтів.
Презентація моделі відбулася наступного дня після Dev Day OpenAI, на якому компанія представила нові застосунки для ChatGPT. Таким чином, Google демонструє конкуренцію у сфері "агентних" ШІ-інструментів, здатних виконувати складні дії замість користувачів. Раніше подібну функцію "computer use" вже інтегрувала компанія Anthropic у свій Claude.
Як повідомляє The Verge, Gemini 2.5 Computer Use перевершує конкурентів у більшості тестів для веб- та мобільних платформ. На відміну від ChatGPT Agent або Claude, її доступ обмежено лише браузером, а не всім комп’ютерним середовищем. Наразі модель підтримує 13 типів дій – зокрема відкриття вкладок, введення тексту, перетягування елементів та натискання кнопок.
Модель уже доступна розробникам через Google AI Studio і Vertex AI, а переглянути демо можна на платформі Browserbase, де ШІ демонструє свої вміння, виконуючи завдання на кшталт "зіграти у 2048" або "переглянути популярні теми на Hacker News".
Чи можуть чат-боти бути небезпечними для дітей?
Звіт Common Sense Media показав, що мовна модель Gemini може поширювати небезпечний контент дітям до 13 років і давати некоректні поради щодо ментального здоров'я навіть із дитячими фільтрами.
Організація виявила, що чат-бот може видавати інформацію про секс, наркотики, алкоголь і навіть некоректні поради з ментального здоров'я. Для дітей до 13 років відповіді виявилися занадто складними, а іноді й небезпечними. Common Sense Media радить батькам уважно стежити за тим, як діти користуються AI, і самостійно пояснювати отримані відповіді. Google своєю чергою рекомендують покращити налаштування для різних вікових груп, провести додаткові тести із залученням дітей та вийти за рамки простих контент-фільтрів.