L'intelligence artificielle de Google, Gemini, est au centre d'une vive polémique. Une faille de sécurité, baptisée "contrebande ASCII", permet de manipuler l'IA avec des instructions invisibles. Le plus inquiétant ? La firme de Mountain View a classé l'affaire sans suite, reportant l'entière responsabilité sur ses utilisateurs.
En quoi consiste cette nouvelle cyberattaque ?
Cette technique, mise en lumière par le chercheur en sécurité Viktor Markopoulos, est d'une simplicité redoutable. Elle repose sur l'utilisation de caractères spéciaux Unicode, totalement invisibles à l'œil nu, dissimulés dans un simple e-mail ou une invitation Google Calendrier. Ces symboles cachés agissent comme des commandes secrètes pour l'intelligence artificielle.
Alors que vous ne voyez qu'un message anodin, Gemini, lui, lit et exécute les instructions malveillantes des pirates. Cette méthode d'attaque de contrebande s'avère particulièrement efficace contre Gemini, mais aussi DeepSeek et Grok, tandis que des concurrents comme ChatGPT ou Microsoft Copilot semblent mieux protégés.
Quels sont les risques concrets pour vos données ?
Le danger est bien réel, surtout à cause de l'intégration profonde de Gemini avec l'écosystème Google. L'IA peut accéder à vos e-mails sur Gmail ou à vos fichiers sur Google Drive.
Imaginez un pirate qui vous envoie un courriel piégé : si vous demandez à Gemini de le résumer, l'IA pourrait être secrètement ordonnée de rechercher des mots de passe, des identifiants bancaires ou des contacts dans votre boîte de réception et de les envoyer au cybercriminel.
C'est une porte ouverte à des vols de données massifs ou à des campagnes de phishing très ciblées, transformant un simple assistant en un outil d'extraction de données autonome.
Pourquoi Google refuse-t-il d'intervenir ?
Face à cette menace, la réaction de Google a de quoi surprendre. Bien qu'informée par le chercheur, démonstration à l'appui, l'entreprise a décidé de ne pas développer de correctif. Pour le géant de la tech, il ne s'agit pas d'un bug de sécurité au sens strict, mais plutôt d'un problème relevant de l'ingénierie sociale.
En d'autres termes, Google estime que l'attaque ne peut fonctionner que si l'utilisateur est d'abord trompé. La firme de Mountain View considère donc que la menace ne justifie pas de mesures techniques et renvoie la balle aux utilisateurs, leur demandant d'être plus vigilants sur les contenus qu'ils soumettent à l'IA. Une position qui contraste avec celle d'autres acteurs comme Amazon, qui recommande depuis des années de filtrer ce type de caractères invisibles.