Lors de sa conférence I/O qui s’est tenue aujourd’hui, Google a dévoilé une nouvelle façon d’interagir avec le monde qui vous entoure. Le géant de Mountain View étend sa fonctionnalité « Live » à son moteur de recherche et à son application Gemini sur iOS. Cette technologie, qui permet à l’IA d’analyser en temps réel ce que votre caméra capte, arrive enfin dans Google Search et sera disponible gratuitement pour tous les utilisateurs d’iPhone.
Une évolution naturelle pour l’écosystème Google
La fonctionnalité de partage de caméra en temps réel n’est pas totalement nouvelle. Elle avait déjà fait sensation l’année dernière lors de la précédente édition de Google I/O dans le cadre du projet expérimental Project Astra. Après une période de tests, Google l’avait officiellement intégrée à Gemini Live sur Android il y a environ un mois.
Ce qui change aujourd’hui, c’est l’intégration directe au cœur du produit phare de Google : son moteur de recherche. La fonctionnalité, baptisée « Live Search », permettra aux utilisateurs de partager leur flux de caméra avec l’outil de recherche et de poser des questions précises sur ce qu’ils voient.
Comment ça marche concrètement ? Imaginez que vous êtes devant votre réfrigérateur, perplexe quant au repas à préparer. Vous pourrez bientôt pointer votre caméra vers l’intérieur du frigo, activer le mode Live dans Search, et demander : « Que puis-je cuisiner avec ces ingrédients ? » L’IA analysera le contenu en temps réel et vous proposera des recettes adaptées.
Une démocratisation massive de l’IA visuelle
L’intégration de cette technologie dans Google Search représente un tournant majeur. Jusqu’à présent, les fonctionnalités d’IA visuelle avancées étaient principalement réservées aux utilisateurs de Gemini ou d’applications spécialisées. Avec Live Search, Google met cette puissance d’analyse entre les mains de ses milliards d’utilisateurs quotidiens.
« Nous voulons que l’IA soit accessible à tous, pas seulement aux early adopters ou aux technophiles », expliquait récemment Prabhakar Raghavan, vice-président senior de Google, lors d’une précédente conférence.
Cette approche s’inscrit parfaitement dans la stratégie de l’entreprise qui consiste à rendre l’IA omniprésente tout en conservant la simplicité d’utilisation qui a fait le succès de ses produits.
Des fonctionnalités gratuites, une stratégie repensée
Point intéressant : Google a changé sa stratégie commerciale concernant ces fonctionnalités. Initialement, le partage d’écran et de caméra devait être réservé aux abonnés payants de Gemini Advanced. L’entreprise a finalement fait machine arrière, rendant ces outils accessibles gratuitement sur toutes les plateformes, Android comme iOS.
Ce revirement témoigne de la compétition féroce sur le marché de l’IA grand public, où Google cherche à conserver son avance face à des concurrents comme OpenAI (ChatGPT) ou Microsoft (Copilot). La gratuité semble être l’arme privilégiée pour assurer une adoption massive.
Un déploiement progressif et contrôlé
Si l’annonce est faite aujourd’hui, la patience reste de mise pour les utilisateurs impatients d’essayer Live Search. Google précise que la fonctionnalité ne sera disponible qu’à la fin de l’été et passera d’abord par une phase bêta réservée aux testeurs du programme Labs.
Cette prudence s’explique probablement par les défis techniques et éthiques que pose une telle technologie. Les questions de vie privée, de confidentialité des données visuelles et de potentiels biais algorithmiques nécessitent une approche mesurée.
Une pièce d’un puzzle plus large
Live Search n’est qu’une des nombreuses nouveautés annoncées pour le mode IA de Google Search. Parmi les autres fonctionnalités à venir, on retrouve :
- Deep Search : un mode de recherche approfondi basé sur la recherche scientifique
- Agent d’action web : une IA capable d’effectuer des actions sur internet pour vous
- Nouveaux outils shopping : des fonctionnalités d’achat enrichies par l’intelligence artificielle
Une évolution qui va au-delà des smartphones
Il convient de noter que cette technologie a d’abord été lancée sur les smartphones haut de gamme comme le Pixel 9 de Google et le Galaxy S25 de Samsung avant d’être étendue à l’ensemble des appareils Android quelques semaines plus tard. Cette approche de diffusion progressive est typique de Google, qui teste souvent ses innovations les plus avancées sur ses propres appareils avant de les généraliser.
L’intégration à iOS marque une étape importante, montrant la volonté de Google de toucher tous les utilisateurs, quel que soit leur écosystème de prédilection.
Des cas d’usage qui vont au-delà de la cuisine
Si l’exemple du réfrigérateur est souvent mis en avant, les applications pratiques de cette technologie sont bien plus vastes :
- Éducation : identification de plantes, d’animaux ou d’étoiles en temps réel
- Shopping : comparaison de prix et recherche d’avis en pointant simplement la caméra vers un produit
- Traduction : compréhension de textes en langues étrangères avec analyse contextuelle
- Accessibilité : assistance pour les personnes malvoyantes qui peuvent obtenir des descriptions détaillées de leur environnement
Cette polyvalence explique pourquoi Google mise tant sur cette technologie et l’intègre progressivement à l’ensemble de son écosystème. Avec la récente présentation de Gemini 2.5, on peut s’attendre à des améliorations continues de ces capacités d’analyse visuelle en temps réel.