On pensait avoir déjà bien exploré les dérives potentielles de l'intelligence artificielle, mais voilà qu'une nouvelle histoire vient nous rappeler à quel point ces outils peuvent être détournés à des fins révoltantes. Cette fois, c'est Grok, le chatbot conversationnel d'Elon Musk conçu pour être moins "woke" et plus "libre" dans ses réponses, qui est sur la sellette. Des internautes peu scrupuleux ont découvert comment exploiter ses fonctionnalités pour créer des images de personnes dénudées, transformant des photos innocentes en montages érotiques ou même pornographiques. Un vrai problème qui soulève une vague d'indignation et interroge sur la modération de ces nouvelles technologies.
Quand l'IA d'Elon Musk devient un outil de "déshabillage" virtuel
Le principe est aussi simple que malsain. En fournissant à Grok une photo d'une personne habillée et en utilisant des prompts spécifiques (des instructions textuelles pour guider l'IA), certains utilisateurs parviennent à lui faire générer une version "déshabillée" de cette même personne. Si l'IA elle-même n'est pas explicitement conçue pour cela et que ses conditions d'utilisation interdisent normalement la génération de contenu sexuellement explicite ou non consensuel, la "liberté" et le ton parfois irrévérencieux de Grok, voulus par son créateur, semblent offrir des failles. Ces images, bien que générées par une IA et donc fausses, n'en sont pas moins extrêmement dégradantes et peuvent avoir des conséquences psychologiques terribles pour les victimes, qui sont majoritairement des femmes.
Alors certes, quand l'utilisateur mal intentionné demande à Grok "d'enlever les vêtements" d'une femme sur une photo, l'IA ne fait que générer un corps dénudé correspondant aux proportions de la cible, en conservant son visage. Ce n'est bien évidemment pas son vrai corps qui s'expose, mais peu importe, le mal est fait et peu importe s'il s'agit d'un deepfake, nombre d'usagers ne cherchent pas plus loin.
Deepfakes : une menace persistante aux conséquences dévastatrices
Ce détournement de Grok n'est malheureusement qu'un nouvel exemple de la problématique des deepfakes à caractère sexuel et pornographique. Depuis des années, des outils plus ou moins accessibles permettent de truquer des images ou des vidéos, souvent pour placer le visage d'une personne sur le corps d'une autre dans des contextes sexuels. Ces pratiques, qui relèvent du harcèlement et de la violation de la vie privée, sont un véritable fléau sur les réseaux sociaux, notamment sur X (anciennement Twitter), la plateforme d'Elon Musk. La facilité avec laquelle ces fausses images peuvent être créées et diffusées est particulièrement alarmante. On se souvient tous d'affaires similaires, et chaque nouvelle technologie semble apporter son lot de détournements potentiels si des garde-fous stricts ne sont pas mis en place et, surtout, respectés.
Interpellé sur le sujet, Grok admet qu'il s'agit là de l'exploitation malsaine d'une faille dans ses mécanismes de protection, et promet une mise à jour dans ses politiques de consentement... sans fournir de date précise. Reste qu'Elon Musk avait justement joué sur cette forme de "liberté qui dérange" avec son IA, précisant qu'elle avait vocation à se démarquer des autres en se voulant plus ouverte aux discussions les plus controversées, un volet plus permissif qui peut néanmoins faire des dégâts.
Quelle responsabilité pour les créateurs d'IA et les plateformes ?
Face à ces dérives, la question de la responsabilité se pose. Les entreprises qui développent des modèles d'intelligence artificielle aussi puissants que Grok ont-elles suffisamment anticipé ces mésusages ? Les mécanismes de modération sont-ils à la hauteur ? La "liberté d'expression" prônée par certains ne devient-elle pas une porte ouverte à la malveillance et au harcèlement ? Pour l'instant, xAI et X n'ont pas toujours brillé par leur réactivité ou leur fermeté face à la prolifération de ces contenus. Il est pourtant urgent que des mesures plus efficaces soient prises pour protéger les individus contre ces nouvelles formes d'agression numérique. Car si la technologie offre des possibilités fascinantes, elle ne doit jamais devenir un outil pour nuire ou humilier.
Reste que la situation pourrait rapidement évoluer : aux USA, la Chambre des représentants a récemment adopté le "Take It Down Act", un projet de loi qui criminalise la diffusion d'images sexuellement explicites non consenties, même si elles sont générées par IA... X pourrait donc rapidement se mettre en règle sous peine de poursuites.