Une nouvelle génération de navigateurs équipés d'intelligence artificielle, conçus pour nous assister dans nos tâches quotidiennes, pourrait paradoxalement devenir le maillon faible de notre sécurité numérique. Des recherches récentes menées par la société de cybersécurité Guardio montrent que ces agents IA, comme Comet de Perplexity, peuvent être bernés par des arnaques élémentaires, allant jusqu'à effectuer des achats ou fournir des identifiants sur des sites frauduleux sans l'intervention de l'utilisateur.
Des assistants IA trop naïfs face au phishing
L'un des dangers les plus immédiats réside dans la gestion des tâches d'achat et de connexion. Lors de tests, les chercheurs ont demandé à un navigateur IA d'acheter un produit sur une fausse page Walmart, reconnaissable à son logo déformé et son adresse suspecte. L'agent n'a détecté aucune anomalie et a procédé à la transaction en remplissant les informations bancaires. Une autre expérience a consisté à lui soumettre un email phishing imitant une banque. Là encore, l'IA a cliqué sur le lien piégé et a saisi automatiquement les identifiants sur la fausse page de connexion. L'utilisateur, lui, ne voit jamais l'adresse douteuse ni l'URL frauduleuse, laissant l'IA valider le piège. « Le résultat : une chaîne de confiance parfaite qui déraille », affirment les experts de Guardio.
PromptFlix, l'arnaque invisible qui manipule l'IA
Au-delà des arnaques classiques, une menace plus insidieuse a été identifiée : les injections de prompt. Cette technique, baptisée PromptFlix ou PromptFix, consiste à intégrer des instructions malveillantes directement dans le code d'une page web. Ces commandes sont invisibles pour un œil humain, mais parfaitement lisibles par l'agent IA qui les exécute sans hésiter. Les tests ont démontré qu'il était possible de forcer le navigateur à cliquer sur des boutons cachés pour contourner un CAPTCHA et télécharger des malwares, le tout sans la moindre action de l'utilisateur. Le navigateur Comet et l'agent de ChatGPT se sont montrés vulnérables à cette attaque, bien que dans le cas de ChatGPT, le risque soit atténué par le téléchargement du fichier dans un environnement isolé.
Scamlexity, une nouvelle ère de menaces
Cet ensemble de vulnérabilités a conduit les chercheurs à définir un nouveau concept : Scamlexity, contraction de "scam" (arnaque) et "complexité". Ce terme décrit une nouvelle réalité où la commodité apportée par les agents IA entre en collision avec une surface d'attaque inédite et invisible, faisant des humains des « dommages collatéraux ». L'automatisation de la navigation, si pratique soit-elle, légitime involontairement des sites et des processus frauduleux, car l'IA exécute les tâches sans le recul ni l'intuition d'un humain. Cette technologie transforme ainsi autant les arnaques que la cybersécurité elle-même.
Vers une cybersécurité renforcée pour l'IA
Face à ces constats, il apparaît que les systèmes d'IA doivent impérativement intégrer des mesures de sécurité bien plus avancées que les défenses basiques. La simple exécution de tâches ne suffit plus : les navigateurs de demain devront être capables d'anticiper, de détecter et de neutraliser activement ces menaces. Les chercheurs de Guardio insistent sur la nécessité d'intégrer des garde-fous robustes, incluant notamment :
- La détection de phishing avancée,
- La vérification de la réputation des URL en temps réel,
- L'identification des tentatives d'usurpation de noms de domaine,
- L'analyse approfondie des fichiers potentiellement malveillants.
Sans ces protections, la vague de navigateurs intelligents pourrait bien devenir une aubaine pour les cybercriminels.