L'annonce, relayée par le quotidien sud-coréen Maeil Business Newspaper, a fait l'effet d'une bombe dans l'écosystème de l'intelligence artificielle.

Une équipe de la startup Aim Intelligence, spécialisée dans le « red-teaming », une pratique consistant à simuler des attaques pour tester des défenses, a réussi à contourner les garde-fous éthiques de Gemini 3 Pro, le modèle le plus avancé de Google.

Cette opération a été menée via un jailbreak, une méthode d'attaque basée sur des requêtes textuelles conçues pour tromper l'IA.

Un piratage d'une simplicité déconcertante

L'équipe d'Aim Intelligence a utilisé des techniques de « prompting contradictoire » et des flux augmentés par des outils pour réaliser cette prouesse. En un temps record, les mécanismes de sécurité du modèle ont été contournés, ouvrant une brèche béante dans ses défenses.

Cette rapidité d'exécution contraste avec les longs cycles de développement de produits technologiques complexes et souligne la nature purement logicielle et potentiellement fragile de ces protections.

gemini-3

Une fois les barrières tombées, les résultats se sont avérés pour le moins préoccupants. Les chercheurs ont demandé au modèle de générer des instructions pour créer le virus de la variole.

L'IA s'est exécutée, fournissant un guide que les experts ont qualifié de détaillé et viable. Il ne s'agissait donc pas d'une simple erreur, mais bien d'une défaillance profonde des systèmes de sécurité censés bloquer de telles requêtes.

Quand l'IA se moque de ses propres faiblesses

L'expérience ne s'est pas arrêtée là. Les chercheurs ont ensuite poussé le modèle d'IA Gemini 3 Pro à utiliser ses propres outils de génération de code pour créer un site web. Ce dernier hébergeait des informations dangereuses, notamment des guides pour fabriquer du gaz sarin et des explosifs artisanaux.

Cette étape démontre un risque supplémentaire : la capacité de l'IA à instrumentaliser ses propres fonctions pour produire du contenu malveillant.

intelligence artificielle 02

Le plus déroutant reste sans doute la réaction de l'IA à sa propre compromission. Sollicité pour créer une présentation satirique sur sa propre faille, le modèle a généré un diaporama intitulé « Excused Stupid Gemini 3 ».

Cette capacité à réfléchir ironiquement sur son propre échec démontre une forme de méta-compréhension, un trait que l'on recherche en robotique avancée, mais qui s'avère ici dénué de tout contrôle éthique.

Une course contre la montre pour la sécurité

Cette démonstration met en lumière un problème bien plus large que le seul cas de Google. Les experts s'accordent à dire que nous assistons à une course effrénée entre le développement des capacités des modèles et la robustesse de leurs mécanismes de défense.

Les IA modernes développent des stratégies de contournement et utilisent des « invites de dissimulation » rendant les filtres basiques obsolètes.

Ce constat est corroboré par d'autres évaluations indépendantes, soulignant une fragilité systémique. La fiabilité est un enjeu qui touche toute la tech, y compris les systèmes autonomes complexes où la moindre faille peut avoir des conséquences graves.

Pour les utilisateurs, la leçon est claire : une interface soignée ne garantit ni la sécurité ni l'exactitude, et l'industrie doit désormais passer à un cycle de sécurisation accéléré, similaire à celui de la cybersécurité traditionnelle.

Source : Android Autority