Lors de l’événement « Android Show XR Edition« , Google a dévoilé les contours de sa nouvelle stratégie pour la réalité étendue (XR), présentant une plateforme logicielle unifiée capable de s’adapter à une large gamme d’appareils, du casque immersif aux lunettes connectées du quotidien. Et j’ai hâte de pouvoir tester tout ça !
L’IA générative au cœur d’un écosystème matériel diversifié
Selon Google, Android XR incarne la vision d’une technologie « intelligente » plutôt que simplement « connectée ». Et cette intelligente vision, fruit d’une collaboration étroite avec Samsung et Qualcomm, est évidemment incarné par l’assistant IA Gemini qui va intervenir comme le chef d’orchestre de l’interface, capable non seulement de comprendre le contexte et les préférences de l’utilisateur, mais aussi d’anticiper ses besoins et d’automatiser certaines tâches complexes. L’objectif est clair : transformer l’interaction homme-machine pour qu’elle devienne conversationnelle et fluide, quel que soit le matériel utilisé (chose qui pourrait être transposable à l’avenir sur l’ordinateur portable).
Globalement, la stratégie matérielle s’articule autour d’un spectre d’appareils complémentaires. À une extrémité, on retrouve les casques immersifs comme le Samsung Galaxy XR. Déjà commercialisé (pas en France encore), cet appareil bénéficie d’une mise à jour majeure apportant des fonctionnalités de productivité comme « PC Connect » pour déporter l’écran de n’importe quel ordinateur sous Windows (pas exclusif aux ordinateurs Samsung), ou « Likeness » pour des avatars photoréalistes en appel vidéo (Google Meet en l’occurrence). Pour 2025, Google promet également une technologie d’auto-spatialisation capable de convertir en temps réel des contenus 2D classiques en expériences 3D immersives.
Pour combler le fossé entre le casque lourd et les lunettes légères, Google a présenté le « Project Aura » (un naming qu’on connait déjà). Prévu pour l’année prochaine, ce dispositif se présente sous la forme de lunettes XR filaires. Plus légères grâce à un boîtier externe qui regroupe la batterie et l’unité de calcul, elles utilisent des optiques transparentes pour superposer des éléments virtuels au monde réel. Ce format hybride vise particulièrement les travailleurs nomades souhaitant déployer un espace de travail multi-écrans dans des lieux publics sans s’isoler totalement de leur environnement.
Enfin, l’offensive de Google cible le grand public avec une nouvelle génération de lunettes IA, développées avec des marques de mode comme Warby Parker et Gentle Monster. L’approche est ici « eyewear first » : la technologie doit s’effacer derrière le style et le confort. Ces lunettes se déclineront en deux versions, l’une purement audio/caméra et l’autre équipée d’un discret affichage tête haute. Grâce à Gemini, elles permettront la traduction en direct, la recherche visuelle ou encore la navigation contextuelle, comme l’a démontré l’intégration prévue avec Uber pour localiser son chauffeur sans sortir son téléphone. Et vous, quel type de matériel vous tente le plus ? Personnellement, pour le quotidien, les lunettes avec l’affichage tête haute et pour le travail, les lunettes « Project Aura ».
Fondateur de Chromebook Live/Tech Live et de la société de services Blicom et passionné de Chromebook, je vous partage les actualités incontournables sur les Chromebooks et Chrome OS ainsi que mes retours d’expérience sur ces sujets avec une approche utilisateur mais business aussi. Localisation : Paris & Internet.