Google annonce l’intégration profonde de son intelligence artificielle Gemini au sein de Google Maps, promettant plusieurs mises à jour majeures destinées à enrichir l’expérience utilisateur, que ce soit au volant ou à pied.

De la conduite conversationnelle à l’exploration visuelle
La principale innovation promue par Google réside dans l’intégration de Gemini directement dans l’expérience de conduite. L’assistant IA permettra aux utilisateurs de gérer des tâches complexes en mode mains libres, via des requêtes conversationnelles. Il sera par exemple possible de demander à Maps de trouver un restaurant spécifique sur le trajet tout en vérifiant la situation du parking, ou même d’ajouter un événement au calendrier sans quitter l’application (intégration dans l’écosystème des applications de la firme). Google facilite également le signalement vocal des perturbations : il suffira d’indiquer « Je vois un accident » ou « Il y a un ralentissement » pour mettre à jour la carte, très pratique au lieu de s’encombrer avec les différents boutons et dénominations (je pense surtout à l’objet sur la route).
Pour rendre les instructions plus intuitives, Google Maps abandonne les indications de distance parfois abstraites au profit de repères visuels clairs. Grâce à l’analyse par Gemini de la base de données de lieux et des images Street View, l’application utilisera des instructions telles que « Tournez à droite après tel restaurant », ce dernier étant mis en surbrillance sur la carte à l’approche de l’intersection.
L’anticipation du trafic est aussi améliorée. Maps enverra des notifications proactives concernant des perturbations soudaines, comme des fermetures de route ou des embouteillages importants, et ce, même si l’utilisateur n’a pas lancé de navigation active.
Enfin, l’exploration à destination est repensée avec l’intégration de Gemini dans la fonction Lens (accessible via l’icône caméra). En pointant son téléphone vers un bâtiment, l’utilisateur pourra identifier des restaurants, boutiques ou lieux d’intérêt. Il sera alors possible de poser des questions directes à l’IA, telles que « Quelle est l’ambiance à l’intérieur ? » ou « Pourquoi ce lieu est-il populaire ? », pour obtenir des réponses contextuelles immédiates.
Le déploiement de ces nouveautés est progressif. L’assistant Gemini en navigation sera disponible dans les semaines à venir sur Android et iOS (là où Gemini est accessible), tandis que la navigation par repères et les alertes proactives sont en cours de déploiement aux États-Unis. J’ai en tout cas hâte de le tester !

Fondateur de Chromebook Live/Tech Live et de la société de services Blicom et passionné de Chromebook, je vous partage les actualités incontournables sur les Chromebooks et Chrome OS ainsi que mes retours d’expérience sur ces sujets avec une approche utilisateur mais business aussi. Localisation : Paris & Internet.
