La puissance de Sora, l'IA vidéo d'OpenAI, vire au cauchemar. L'influenceuse et star de Netflix Avori Strib vient d'en faire les frais. Une vidéo deepfake, la montrant dénudée, a été générée avec l'outil avant de se propager sur les réseaux sociaux. Un faux, certes, mais qui illustre le danger imminent d'une technologie capable de manipuler le réel sans garde-fous, forçant OpenAI à admettre une faille dans ses systèmes.
Qu'est-ce que ce deepfake et comment a-t-il été créé ?
L'affaire a éclaté lorsque l'influenceuse et star de Netflix, Avori Strib, a découvert une vidéo d'elle la montrant exposant sa poitrine, circulant sur les réseaux sociaux. Le clip, créé de toutes pièces avec l'outil Sora d'OpenAI, a rapidement été identifié comme un faux, mais le mal était fait.
Quelle est la réponse d'OpenAI face à cette faille ?
Face au scandale, OpenAI a rapidement réagi en supprimant la vidéo litigieuse. Un porte-parole de l'entreprise a admis que ce contenu avait "échappé à ses systèmes de modération", tout en rappelant que les contenus sexuellement explicites sont formellement interdits par les conditions d'utilisation de Sora.
L'entreprise a promis de "renforcer ses mesures de sécurité pour éviter que cela ne se reproduise" et d'améliorer ses technologies de détection pour bloquer la création de ce type de contenu. Une course contre la montre semble engagée entre la puissance de l'outil et sa capacité à être contrôlé.
Cet incident est-il un cas isolé ?
Malheureusement, non. Ce dérapage est le deuxième pour Sora en à peine une semaine. L'outil avait déjà été critiqué pour avoir permis la création de vidéos jugées "irrespectueuses" à l'effigie de Martin Luther King Jr. L'affaire Avori Strib est cependant bien plus grave, car elle touche directement à l'intégrité d'une personne et remet sur la table le problème croissant des deepfakes à caractère sexuel.
L'influenceuse, qui a annoncé vouloir prendre des mesures légales, espère que son cas "suscitera une réelle prise de conscience et une responsabilisation dans le monde de l'IA". Le message est clair : l'innovation ne peut pas se faire au détriment de la vie privée et du consentement.
Foire Aux Questions (FAQ)
Qu'est-ce qu'un deepfake ?
Un deepfake (ou hypertrucage) est une technique de synthèse multimédia reposant sur l'intelligence artificielle. Elle permet de superposer des fichiers audio et vidéo existants sur d'autres fichiers, créant ainsi des vidéos truquées très réalistes où l'on peut faire dire ou faire n'importe quoi à une personne.
Sora, l'outil d'OpenAI, est-il accessible à tous ?
Pas encore. Sora est actuellement en phase de test et accessible à un nombre limité de créateurs, d'artistes et de chercheurs. OpenAI n'a pas encore annoncé de date de sortie pour le grand public, en partie à cause des préoccupations de sécurité soulevées par ce type d'incident.
Comment se protéger des deepfakes ?
Pour l'instant, la meilleure protection reste la vigilance et l'éducation aux médias. Il faut être critique face aux vidéos spectaculaires ou choquantes, vérifier les sources et chercher les signes de manipulation (clignements des yeux anormaux, synchronisation labiale imparfaite, etc.). À terme, des outils de détection de deepfakes plus performants devraient voir le jour.