L'intelligence artificielle générative, symbolisée par des outils comme ChatGPT, offre des possibilités immenses, mais sa puissance attire aussi les intentions malveillantes. Depuis janvier 2025, OpenAI a réagi face à cette réalité en désactivant dix-huit groupes d'utilisateurs qui ont cherché à exploiter son IA pour des objectifs discutables. Ces actions, documentées dans des rapports de février et juin, mettent en lumière l'ampleur des défis posés par l'utilisation éthique de ces technologies.
L'IA, arme de désinformation massive
La majorité des opérations identifiées par OpenAI impliquaient la création de textes et d'images destinées à semer la désinformation. Ces campagnes, souvent orchestrées par des acteurs liés à la Chine, la Russie, la Corée du Nord et l'Iran, mais aussi le Cambodge, le Ghana et les Philippines, utilisaient ChatGPT pour générer des contenus fallacieux. L'objectif ? Manipuler l'opinion publique et influencer des débats sur les réseaux sociaux.
Ces groupes utilisaient ChatGPT pour produire une multitude de textes courts, parfois une dizaine de mots, sur des sujets variés. Ces éléments étaient ensuite diffusés via de faux comptes sur des plateformes comme X, BlueSky, Facebook ou TikTok. Une opération menée par des Philippins en est un exemple frappant : plus de 20 000 commentaires générés par ChatGPT ont été publiés sous une seule publication TikTok pour saturer les conversations et donner l'illusion d'un consensus. Cette tactique vise à gagner la "guerre de l'opinion" en noyant les voix discordantes sous un flot de messages uniformes.
Au-delà des commentaires, l'IA servait aussi à fabriquer de faux articles pour des sites de désinformation, comme le réseau russe Pravda. Des infox étaient produites dans plusieurs langues, y compris l'espagnol, l'allemand, le chinois ou l'ourdou, pour une diffusion internationale. Ben Nimmo, responsable des enquêtes chez OpenAI, a tempéré la portée de ces campagnes, affirmant : « Nous n’avons pas observé que ces opérations obtenaient plus d’engagement grâce à l’IA. La plupart du temps, les seuls à interagir avec le contenu sont les opérateurs eux-mêmes. » Cela suggère que, malgré l'ingéniosité des méthodes, l'impact réel sur le grand public reste, pour l'instant, limité.
L'IA au service de l'espionnage et de la cybercriminalité
Les usages malveillants de l'IA ne se limitent pas à la désinformation. OpenAI a découvert des applications plus inattendues et spécialisées, touchant à l'espionnage industriel, aux arnaques et même à la cybercriminalité.
Des groupes d'acteurs, potentiellement liés à la Corée du Nord, ont par exemple sollicité ChatGPT pour créer de fausses identités. L'objectif était de les aider à se faire recruter en télétravail au sein d'entreprises françaises, avec de faux CV à l'appui. L'IA facilitait même la participation à des entretiens en visioconférence sans éveiller les soupçons. Le but, selon OpenAI, était de détourner les salaires au profit de la Corée du Nord ou de mener des activités d'espionnage industriel pour capter des informations sensibles.
Parallèlement, plusieurs opérations liées au Cambodge ont exploité l'IA pour orchestrer des arnaques. Ces escroqueries prenaient des formes variées : arnaques aux sentiments, à l'investissement (en promettant des rendements irréalistes) ou encore au faux travail (piégeant des personnes en quête d'emploi). Dans ces cas, l'IA générait des textes et des personnages fictifs crédibles pour tromper les victimes.
L'utilisation la plus singulière concernait un groupe de comptes qui perfectionnaient un virus informatique destiné à infecter des ordinateurs Windows. ChatGPT était employé pour améliorer le code malveillant, démontrant une nouvelle dimension de l'exploitation des IA à des fins illégales. Ces révélations soulignent la nécessité d'une vigilance constante face aux détournements technologiques.
La riposte d'OpenAI : une veille constante
Face à l'évolution des menaces, OpenAI déploie des efforts importants pour surveiller et neutraliser les usages abusifs de ses modèles d'IA. La désactivation de ces 18 groupes depuis le début de l'année 2025 témoigne d'ailleurs de la réactivité de l'entreprise : en identifiant et en fermant ces comptes, OpenAI cherche à limiter le plus possible la propagation des contenus malveillants.
Les rapports publiés en février et juin 2025 détaillent les tactiques employées par ces groupes, permettant ainsi de mieux comprendre les défis à relever. L'entreprise met en œuvre des mécanismes de détection sophistiqués pour repérer les comportements suspects et les schémas d'utilisation anormaux. La combinaison de ChatGPT avec des scripts personnalisés pour générer automatiquement de faux profils et des publications sur des plateformes comme TikTok, X, Reddit et Facebook est un exemple des méthodes employées.
L'objectif d'OpenAI est double : maintenir l'intégrité de ses outils et prévenir leur instrumentalisation à des fins criminelles ou de déstabilisation. Cette démarche est d'autant plus importante que l'IA générative continue de se développer et de se démocratiser, rendant ses potentielles utilisations malveillantes plus accessibles. La transparence d'OpenAI sur ces incidents est un pas essentiel pour sensibiliser le public et les acteurs de l'écosystème numérique aux risques inhérents à ces technologies.