Depuis son intégration à la plateforme X, l'intelligence artificielle générative d'Elon Musk, Grok, est au centre d'une controverse d'une ampleur considérable. Conçue pour générer du contenu et modifier des images, cette technologie a été massivement détournée par des milliers d'utilisateurs.
Le phénomène a pris une tournure particulièrement sordide après le réveillon du Nouvel An, période durant laquelle de nombreuses personnes partagent des photos de leurs tenues de soirée, devenant sans le savoir des cibles potentielles pour des manipulations d'images malveillantes.
Un mécanisme pervers sans véritable garde-fou
Le mode opératoire est d'une simplicité désarmante. Il suffit à un utilisateur de répondre à une photo publiée sur X avec une requête adressée à l'IA, telle que « mets-la en bikini » ou « enlève-lui ses vêtements ».
En quelques instants, l'algorithme produit une version modifiée de l'image, dénudant la personne sans son consentement. Si Grok possède certaines limites et ne génère pas de nudité complète, il n'a aucune retenue pour créer des images en petite lingerie ou en bikini, ce qui constitue déjà une atteinte grave à la dignité et à l'image des victimes.
Le malaise est d'autant plus profond que ce détournement n'épargne personne, y compris les utilisateurs mineurs. La requête n'étant pas considérée comme fondamentalement problématique par les filtres actuels de l'IA, des clichés d'adolescentes se retrouvent ainsi sexualisés et diffusés à grande échelle.
Cette situation a provoqué une vague d'indignation et de nombreux témoignages de victimes. Le phénomène n'est pas nouveau mais sa facilité d'utilisation, sa banalisation...et la qualité de la génération font réagir, tout cliché pouvant devenir sujet à transformation.
Des protections illusoires et des recours complexes
Face au scandale, de nombreux utilisateurs ont cherché des moyens de se protéger. Malheureusement, les options proposées par la plateforme X se révèlent inefficaces.
Décocher les cases relatives à l'utilisation des données par Grok dans les paramètres de confidentialité n'empêche en rien la manipulation des photos ; cela se limite à interdire à l'IA de s'entraîner sur vos publications, une nuance qui n'offre aucune protection réelle contre ces agressions.
La seule parade consiste à verrouiller son compte, une solution qui va à l'encontre même du principe d'un réseau social public.
Sur le plan juridique, les victimes ne sont cependant pas démunies. En France, la loi du 21 mai 2024 a renforcé le cadre légal. L'article 226-6-1 du code pénal sanctionne lourdement la création d'un montage à caractère sexuel via un « traitement algorithmique » sans le consentement de la personne.
Les peines peuvent aller jusqu'à trois ans de prison et 75 000 euros d'amende. Les victimes peuvent donc déposer plainte contre l'internaute à l'origine de la demande, mais aussi potentiellement contre la société xAI, éditrice de l'IA.
Réactions politiques et embarras chez xAI
L'affaire a rapidement pris une dimension politique. La haute-commissaire à l'enfance, Sarah El Haïry, s'est déclarée « scandalisée », rappelant que « si l'image est artificielle, le préjudice est bien réel ».
De son côté, le porte-parole du Parti socialiste, Arthur Delaporte, a annoncé qu'un rapport à venir préconiserait d'« interdire ces fonctions », qualifiant ces actes de cyberharcèlement.
Ces réactions politiques mettent en lumière l'urgence d'adapter la législation aux nouvelles menaces posées par les IA génératives. Elon Musk hurlera-t-il à la censure en retour ?
Prise dans la tourmente, la société xAI a finalement reconnu l'existence de « failles de sécurité » ayant permis la génération d'images illicites, y compris de mineurs, en violation de ses propres règles.
L'entreprise a promis de corriger ces lacunes « de toute urgence », mais le mal est fait. Ce scandale illustre de manière dramatique le décalage entre le déploiement rapide de technologies puissantes et la mise en place de garde-fous éthiques et légaux indispensables pour protéger les individus.