Une faille de sécurité (l’ASCII smuggling) découverte dans Gemini : Google refuse d’y remédier

Image d'illustration. Gemini AppADN
Un chercheur en cybersécurité a récemment découvert une vulnérabilité dans Gemini, l’intelligence artificielle de Google. Malgré cette faille identifiée, l’entreprise américaine a annoncé qu’elle ne prévoyait pas de corriger le problème pour l’instant.
Tl;dr
- Google minimise une faille liée à l’ASCII smuggling.
- La vulnérabilité concerne l’intégration de Gemini à Google Workspace.
- D’autres IA majeures ont corrigé ce type d’attaque.
Quand la discrétion du code devient une menace invisible
Dans l’univers foisonnant de l’intelligence artificielle générative, un terme technique fait aujourd’hui frémir les experts : l’ASCII smuggling. Cette technique, bien connue des chercheurs en cybersécurité, permet de glisser des instructions cachées dans un message en utilisant des caractères spéciaux issus du bloc Unicode. Résultat ? Des contenus indétectables pour l’utilisateur, mais parfaitement interprétés par les algorithmes d’une IA telle que Gemini. Et lorsque ces assistants numériques gagnent en autonomie et accèdent à nos données les plus sensibles via des plateformes intégrées comme Google Workspace, le risque se trouve démultiplié.
L’inquiétude des experts face à la réponse de Google
Un chercheur a récemment mis en évidence la capacité de Gemini à être manipulé pour fournir de fausses informations ou rediriger vers des sites malveillants. Pourtant, loin d’y voir une faille critique, Google considère cette attaque davantage comme un problème « d’ingénierie sociale » que comme une réelle vulnérabilité à corriger. L’entreprise écarte ainsi toute intention immédiate de publier un correctif. Cette position a suscité quelques remous chez les observateurs du secteur, qui estiment que le risque – particulièrement avec l’interconnexion entre IA générative et outils professionnels – mérite davantage d’attention.
L’exploitation concrète : emails piégés et réunions détournées
Dans les faits, la menace se précise surtout autour des services connectés. Grâce à ce type d’attaque, il devient possible pour un email piégé :
- d’injecter des commandes invisibles dans des invitations sur Google Calendar
- d’altérer discrètement les détails d’un organisateur ou la description d’une réunion
- d’amener l’assistant IA à exécuter sans contrôle humain des tâches risquées, telles que la recherche d’informations sensibles ou l’envoi de coordonnées personnelles.
Les chercheurs rappellent que si un assistant connecté peut naviguer sur Internet ou explorer une boîte mail complète, il pourrait involontairement devenir complice d’exfiltration de données simplement en réagissant à du texte caché.
D’autres IA prennent les devants… pas Google
Il faut noter que plusieurs autres grands noms du secteur – parmi lesquels Claude, ChatGPT et Microsoft Copilot, ont déjà implémenté des mécanismes de « santisation d’entrée » pour contrer ces méthodes insidieuses. A contrario, selon le chercheur impliqué dans cette étude, ni Grok, ni DeepSeek, ni donc Gemini, ne se sont prémunis efficacement contre ce vecteur d’attaque. Reste désormais à voir si la pression du secteur poussera finalement Google à revoir sa copie sur ce point sensible.