Sora 2, la nouvelle version du puissant générateur de vidéos d'OpenAI, devait repousser les limites de la créativité. Mais l'outil a rapidement viré au cauchemar numérique.
En quelques jours à peine, des applications permettant de supprimer son filigrane de sécurité ont proliféré, brouillant dangereusement la frontière entre le réel et la fiction générée par l'IA.
Comment un simple filigrane est-il devenu un enjeu majeur ?
Le filigrane d'OpenAI était pensé comme un garde-fou essentiel. Ce petit logo, visible par intermittence, devait garantir l'identification des vidéos générées par intelligence artificielle. C'était sans compter sur l'ingéniosité de certains développeurs.
Des outils, parfois payants, sont apparus sur toutes les plateformes, de Reddit à TikTok, promettant d'effacer cette marque en un clic. Résultat : des vidéos ultra-réalistes circulent sans aucune indication de leur origine, alimentant la méfiance générale.
Quel est l'impact sur la confiance en ligne ?
Le problème ne s'arrête pas à la suppression. Pour semer encore plus le trouble, d'autres outils permettent d'ajouter un faux filigrane Sora sur des vidéos parfaitement authentiques, rendant la détection encore plus complexe.
https://twitter.com/theo/status/1976096703603458370
Ce phénomène, baptisé le « dividende du menteur », crée une situation où même les faits peuvent devenir suspects. Cette érosion de la confiance alimente la propagation de fake news et pousse de nombreux internautes à parler de « la fin d'Internet tel qu'on le connaît », car il devient impossible de se fier à ce que l'on voit.
Quelles sont les autres dérives observées ?
Au-delà de la désinformation, Sora 2 a aussi déclenché une vague de controverses juridiques. Les utilisateurs se sont en effet emparés de l'outil pour créer des scènes improbables impliquant des personnages protégés par le droit d'auteur, de Super Mario à des figures de la pop culture.
OpenAI semble avoir adopté une politique risquée d'opt-out : c'est aux ayants droit de se manifester pour être exclus. Une approche qui promet déjà de futures batailles devant les tribunaux.
https://twitter.com/Ror_Fly/status/1974173242014249314
OpenAI peut-il encore reprendre le contrôle ?
Face au tollé, OpenAI a reconnu des « débordements inacceptables » et promis de renforcer ses filtres. La firme de Sam Altman envisage aussi de partager les revenus avec les ayants droit consentants. Cependant, le mal est fait. Les contenus créés se répandent sans contrôle sur les réseaux sociaux.
En attendant une solution technique viable, la seule défense reste l'esprit critique de chaque utilisateur face à des contenus de plus en plus troublants de réalisme.