На виставці MWC у Барселоні Google представила революційні функції для свого ШІ-асистента Gemini. Вже в березні передплатники преміум-тарифу Google One AI Premium зможуть перетворити свої смартфони на «очі» штучного інтелекту завдяки двом ключовим опціям – Live Video Analysis та Smart Screenshare.

Відеоаналіз у реальному часі дозволяє помічнику миттєво обробляти зображення з камери. Наприклад, навести об’єктив на предмет гардеробу — і отримати поради щодо стилю, або показати інтер’єр кімнати — і почути ідеї щодо декору. Gemini не просто «бачить» контент на екрані, та й підтримує діалог. Користувач може, наприклад, попросити оптимізувати маршрут у навігаторі або пояснити складний графік презентації, отримуючи пояснення у форматі живого спілкування.

Інтеграція функцій поки доступна лише на Android-пристроях з підтримкою кількох мов. На стенді Google демонстрували роботу Gemini на гаджетах Samsung, Xiaomi та інших партнерів, наголошуючи на крос-брендовій сумісності. Для власників iOS терміни релізу поки що не розкриваються.

Заявлені оновлення – лише щабель до амбітної мети Google під кодовою назвою Astra. До 2025 року компанія планує створити універсального мультимодального помічника, здатного:

  • Аналізувати відео-, аудіо- та текстові дані одночасно;
  • Зберігати контекст діалогу до 10 хвилин;
  • Інтегрувати дані з Search, Lens та Maps для комплексних рішень.

Хоча офіційно про випуск Astra як окремого продукту не повідомляється, експерти припускають, що його функціонал поетапно запровадять у Gemini, посилюючи конкуренцію з ChatGPT. Відзначимо, що нейромережа OpenAI вже з грудня 2023 пропонує розширений голосовий режим з аналізом екрану, проте Google робить ставку на глибоку інтеграцію з екосистемою своїх сервісів.

Здатність ШІ обробляти візуальну інформацію у реальному часі стирає грань між цифровим та фізичним світами. Користувачі отримують не просто «помічника, що говорить», а активного учасника повсякденних завдань — від шопінгу до навчання. Із запуском Gemini Vision ринок ШІ-асистентів вступає в епоху гіперконтекстної взаємодії, де ключовим стає не питання «як спитати», а «що показати».

Залишається відкритим питання приватності: як Google захищатиме дані, що передаються через камеру та екран. У компанії запевняють, що весь аналіз відбувається з дотриманням суворих стандартів безпеки, але деталі стануть відомими лише після повноцінного релізу.

0
0
0
0
0
0
1

Залишити комментар