La keynote de la Google I/O 2025 s’est déroulée hier soir, et vous étiez près de 110 viewers en simultanés à s’être connectés à notre direct sur Tech Live et je vous en remercie. J’ai passé un très bon moment à découvrir ces grandes annonces plus ou moins résumées dans cet article.
Bienvenue à Google Beam
Le projet Starline évolue vers Google Beam, une nouvelle plateforme de communication vidéo 3D axée sur l’IA. Elle utilise un modèle vidéo volumétrique IA pour transformer les flux vidéo 2D en expériences 3D réalistes, permettant des connexions plus naturelles et intuitives.
La combinaison du modèle IA et d’un écran light field crée une sensation de profondeur permettant le contact visuel et la lecture des expressions. Ainsi, vous pourrez discuter avec vos interlocuteurs comme si ils étaient en face de vous. Google Beam arrive sur le lieu de travail, en partenariat avec HP et Zoom, avec les premiers appareils HP disponibles pour les premiers clients plus tard cette année.
Speech Translation : la traduction instantanée par la voix
Cette nouvelle fonctionnalité permet d’avoir des conversations traduites en temps quasi réel tout en conservant la voix, le ton et les expressions de la personne en train de parler. Comme cité hier durant le live, on peut retrouver une partie de cette nouveauté dans les pistes audio sur YouTube (si vous consultez mon dernier test du Lenovo Chromebook Duet EDU G2, vous allez pouvoir m’écouter en anglais).
Selon Google, elle est déjà disponible pour les consommateurs au sein de Google Meet mais uniquement disponible en anglais et en espagnol pour le moment.avec d’autres langues à venir et des tests anticipés pour les clients Google Workspace sont prévus cette année.
Gemini Live disponible pour tous
Gemini Live intègre les capacités de caméra et de partage d’écran depuis un certain temps pour les abonnés, vous permettant d’aller plus loin dans l’interaction avec l’IA et la résolution de problème en temps réel (j’ai réparé mon aspirateur Dyson avec Gemini Live).
Et bien sachez que désormais Gemini Live est gratuit pour tous sur Android et iOS.
Le projet Mariner donne naissance au mode Agent
Lors de sa conférence, Google a dévoilé sa stratégie pour les « agents IA », des systèmes intelligents capables d’agir pour l’utilisateur en interagissant avec le web et accomplissant des tâches, agissant pour le compte de l’utiliasteur et sous son contrôle. Le project Mariner a progressé avec des capacités multitâches et une méthode d’apprentissage « teach and repeat ». Ses fonctionnalités d’interaction web seront accessibles aux développeurs via l’API Gemini dès cet été, après des tests avec des partenaires.
Pour l’écosystème, Google promeut son protocole Agent2Agent et annonce la compatibilité de l’API Gemini avec le Model Context Protocol (MCP) d’Anthropic. Ces capacités s’intègrent dans Chrome, Search et surtout l’application Gemini avec un nouvel « Agent Mode » expérimental. Bientôt disponible pour les abonnés, ce mode permettra, par exemple, de gérer des tâches complexes comme une recherche d’appartement, de la sélection à la planification de visites, bénéficiant aussi aux plateformes partenaires. Google considère ce domaine comme une nouvelle frontière prometteuse et j’ai vraiment hâte de pouvoir tester cela.
Le contexte personnel comme clé de la personnalisation des réponses
Google a souligné l’importance de la personnalisation pour rendre ses avancées en IA véritablement utiles au quotidien. L’entreprise introduit le concept de « Contexte Personnel » ou « Personal Context », permettant aux modèles Gemini, avec la permission explicite de l’utilisateur (parce que la confidentialité, c’est quand même important), d’accéder aux informations pertinentes issues des différentes applications de son profil Google.
Un premier exemple concret est l’arrivée des réponses intelligentes personnalisées dans Gmail (qui seront disponibles pour les abonnés plus tard dans l’année). Si un ami demande conseil pour un voyage déjà effectué, Gemini pourra rechercher dans les anciens emails et fichiers Google Drive (itinéraires dans Docs, par exemple) pour suggérer une réponse détaillée et pertinente. Le système sera en capacité d’imiter le style de l’utilisateur : les salutations habituelles, le ton, le vocabulaire afin de générer des réponses qui semblent authentiquement provenir de lui.
Nous venons de citer Gmail, mais Google prévoit un plus large cadre applicatif pour le contexte personnel à travers d’autres services comme Search et Gemini.
Google Search : transition progressive de AI Overviews vers AI Mode
Lancées l’année dernière, les AI Overviews auraient déjà atteint 1,5 milliard d’utilisateurs dans 200 pays et territoires. Après vérification à mon niveau, je ne l’ai pas de disponible en continu mais il me semble l’avoir aperçu lors des certaines recherches… Pour rappel, les AI Overviews correspond à une partie des résultats de votre requête effectuée dans Google Search basé sur l’IA et très proche de ce que Gemini peut vous produire.
Pour ceux qui souhaitent aller de l’avant et avoir une expérience de recherche entièrement basée sur l’IA, Google introduit le tout nouveau « AI Mode ». Présenté comme une refonte totale de Search (très proche d’une interface comme celle de Gemini App finalement), ce mode permet des requêtes plus longues, complexes et des questions de suivi, grâce à un raisonnement plus avancé. Les premiers testeurs ont formulé des requêtes deux à trois fois plus longues que les recherches traditionnelles.
Google a également présenté une nouvelle expérience d’achat via le mode IA qui combine les capacités du modèle Gemini avec le Shopping Graph pour vous aider à trouver des inspirations, à réfléchir aux considérations et à affiner les produits. Il est même possible d’essayer virtuellement des milliards d’articles d’habillement en téléchargeant une seule image de vous-même en s’adaptant à votre morphologie. Aussi, une nouvelle fonction de paiement agentic peut effectuer l’achat en votre nom avec Google Pay lorsque le prix est juste, toujours sous votre supervision.
Cet « AI Mode » est actuellement déployé aux États-Unis et accessible via un nouvel onglet dans Search. Google assure que ses réponses IA, propulsées par les derniers modèles Gemini, atteignent la qualité et la précision attendues, tout en étant les plus rapides du secteur. De plus, le modèle Gemini 2.5 commencera à être intégré à Search aux États-Unis dès cette semaine.
Google renforce sa gamme Gemini 2.5 avec un Flash amélioré et un mode « Deep Think » pour Pro
La firme de Mountain View a annoncé des améliorations significatives pour ses modèles d’IA Gemini 2.5. Le modèle Gemini 2.5 Flash, déjà prisé des développeurs pour sa rapidité et son faible coût, a été optimisé « dans presque toutes les dimensions ». Cette nouvelle version de Flash affiche des performances accrues sur les principaux bancs d’essai en matière de raisonnement, de multimodalité, de code et de traitement de contexte long. Il se positionne juste derrière Gemini 2.5 Pro au classement LMArena.
Concernant Gemini 2.5 Pro, Google introduit une amélioration notable avec un mode de raisonnement avancé baptisé « Deep Think ». Cette fonctionnalité s’appuie sur les recherches les plus récentes de l’entreprise en matière de pensée et de raisonnement, intégrant notamment des techniques de « pensée parallèle » pour des capacités cognitives supérieures.
Veo 3 et Imagen 4 viennent prendre le relais
Veo 3 est le nouveau modèle de génération de vidéo de pointe, qui peut désormais générer des vidéos avec de l’audio intégré : effets, fond sonore et dialogues (basés sur le nouveau modèle audio natif). Il est disponible pour les abonnés Ultra aux États-Unis dans l’application Gemini et dans Flow, ainsi que pour les utilisateurs d’entreprise sur Vertex AI. Voici le film d’introduction de l’ouverture de la Google I/O 2025 généré avec Veo 3 et c’est juste dingue ce qu’on arrive à faire :
Imagen 4 est le dernier modèle de génération d’images, offrant une plus grande qualité, une grande clarté des détails, la création d’images jusqu’à une résolution de 2k, et une meilleure gestion de l’orthographe et de la typographie (c’était nécessaire). Il est apparemment disponible dans l’application Gemini.
Google Flow : l’outil de création de films IA
Pour continuer sur ce flux de nouveautés (vous voyez le jeu de mots arriver), Google a introduit Google Flow. On parle d’un nouvel outil de création cinématographique assisté par l’intelligence artificielle, conçu spécifiquement pour les créatifs et optimisé pour ses modèles les plus avancés : Veo (pour la vidéo), Imagen (pour l’image) et Gemini (pour la compréhension). Flow vise à permettre aux conteurs d’explorer leurs idées et de produire des clips et scènes cinématiques. Il s’appuie sur Veo pour une adéquation aux prompts et un rendu réaliste, tandis que Gemini facilite la description des visions en langage naturel et Imagen permet de créer des « ingrédients » visuels personnalisés. Mais quoi de mieux qu’une vidéo pour vous exprimer les résultats de création de vidéos avec Google Flow :
Les utilisateurs peuvent intégrer ces éléments de manière cohérente à travers différentes scènes ou utiliser une image de scène pour initier un nouveau plan. Flow inclut des fonctionnalités professionnelles telles que des contrôles de caméra précis, un « un constructeur de scène » pour éditer et étendre les plans avec des personnages cohérents. Flow, qui est l’évolution de l’expérimentation VideoFX, est déjà disponible aux États-Unis pour les abonnés aux offres Google AI Pro et Google AI Ultra, avec une extension future à d’autres pays.
Gemini directement dans Chrome
Gemini dans Chrome est en cours de déploiement pour les abonnés Google AI Pro et Ultra aux États-Unis utilisant Chrome en anglais sur Windows et MaOS.
La petite icône Gemini vient s’ajouter à la barre du haut du navigateur où se trouve les onglets et cette première version permet de clarifier des informations complexes sur une page web ou de résumer son contenu (d’où peut-être l’absence de ChromeOS dans la communication car il existe déjà ces fonctionnalités expérimentales « Help me write » et « Help me read).
Plans d’abonnement Google AI Pro et Google AI Ultra
Google lance deux nouveaux abonnements ! Le plus abordable, Google AI Pro ($19,99/mois), remplace et étend Gemini Advanced, offrant une suite d’outils IA, Flow, NotebookLM, etc… avec des fonctionnalités spéciales et des limites d’utilisation plus élevées.
Par contre, pour les professionnels j’imagine, Google AI Ultra ($249,99/mois) est un plan premium offrant un accès aux modèles les plus puissants, les limites d’utilisation les plus élevées, et un accès anticipé aux produits expérimentaux IA les plus récents, y compris le mode agent. Le plan Ultra donne également un accès prioritaire aux meilleurs modèles comme Veo 3 et Deep Think.
Android XR : plus de détails et démonstration pour les lunettes connectés
Google a exposé sa vision de la convergence entre l’intelligence artificielle (IA) et la réalité étendue (XR), avec Android XR comme plateforme centrale (où je considère Gemini comme pilier central). Elle vise à équiper un écosystème de casques et de lunettes. L’intégration de Gemini permettra à ces appareils de comprendre le point de vue de l’utilisateur, d’offrir une assistance contextuelle mains libres et d’agir en son nom.
Alors que des casques immersifs de réalité étendue, comme le « Project Moohan » de Samsung attendu pour l’achat plus tard cette année (sans date précise), ont déjà été évoqués, Google a mis l’accent sur les lunettes Android XR au travers d’une démonstration live. Celles-ci sont dotées de caméras, de microphones, de haut-parleurs et d’un affichage optionnel dans le verre et fonctionneront avec le smartphone. Les démonstrations ont illustré des cas d’usage comme l’envoi de message par sms, la capture photo, la prise de rendez-vous, la navigation et surtout la traduction linguistique en temps réel, offrant des « sous-titres pour le monde réel ».
Pour favoriser l’adoption, Google s’associe avec des marques de lunetterie reconnues, en commençant par Gentle Monster et Warby Parker, et prévoit des collaborations futures avec des acteurs comme Kering Eyewear. L’entreprise renforce également son partenariat avec Samsung pour développer une plateforme logicielle et matérielle de référence pour les lunettes, accessible aux développeurs plus tard cette année mais pas d’informations sur une quelconque commercialisation.
Fondateur de Chromebook Live/Tech Live et de la société de services Blicom et passionné de Chromebook, je vous partage les actualités incontournables sur les Chromebooks et Chrome OS ainsi que mes retours d’expérience sur ces sujets avec une approche utilisateur mais business aussi. Localisation : Paris & Internet.