OpenAI a annoncé avoir pris des mesures drastiques en bannissant plusieurs comptes ChatGPT. La raison ? Des soupçons de liens avec des entités gouvernementales chinoises qui auraient tenté d'utiliser l'intelligence artificielle pour concevoir des outils de surveillance de masse, une pratique en violation directe avec les politiques de sécurité de la start-up américaine.

Une ligne rouge franchie dans l'utilisation de l'IA

Au cœur de cette affaire se trouvent des demandes pour le moins explicites. Le dernier rapport public d'OpenAI sur les menaces révèle que certains utilisateurs ont sollicité le chatbot pour obtenir des plans détaillés d'outils "d'écoute" des réseaux sociaux et d'autres concepts de monitoring.

Ces requêtes précises constituent une violation flagrante de la politique de sécurité nationale de l'entreprise, conçue pour empêcher l'utilisation de ses technologies à des fins malveillantes ou de surveillance étatique. L'entreprise, soutenue par Microsoft, montre ainsi sa volonté d'agir comme un rempart contre les dérives potentielles de ses propres créations.

Plus qu'un incident isolé, un front sino-américain

Cette décision s'inscrit sur la toile de fond d'une guerre technologique de plus en plus tendue entre les États-Unis et la Chine. Chaque puissance cherche à façonner le développement et la régulation de l'IA, un enjeu stratégique majeur pour les décennies à venir.

OpenAI a également précisé avoir banni d'autres comptes en langue chinoise qui se servaient de ChatGPT pour assister des campagnes de phishing et de logiciels malveillants.

Fait notable, ces acteurs cherchaient à automatiser leurs opérations via DeepSeek, le modèle d'IA concurrent chinois, illustrant les interactions complexes au sein de cet écosystème.

Une politique de sécurité proactive, mais jusqu'où ?

La fermeté d'OpenAI ne se limite pas à la Chine. La société a également interdit des comptes liés à des groupes criminels russophones qui utilisaient le chatbot pour développer des malwares.

Depuis le lancement de ses rapports publics en février 2023, la start-up affirme avoir démantelé plus de 40 réseaux malveillants. Elle insiste sur un point crucial : ses modèles d'IA auraient systématiquement refusé les requêtes les plus ouvertement malintentionnées.

L'entreprise se veut rassurante, déclarant n'avoir trouvé "aucune preuve de nouvelles tactiques" ni que ses modèles aient offert des "capacités offensives inédites" aux acteurs de la menace.

Avec plus de 800 millions d'utilisateurs hebdomadaires, la responsabilité d'OpenAI est immense, et chaque action de ce type redéfinit les frontières de son rôle de régulateur de l'ombre.