Fin 2019, le Deepfake Detection Challenge avait été lancé sous l'égide de Facebook et avec le soutien d'Amazon Web Services, Microsoft, le Partnership of AI et plusieurs universités. Sous la forme d'un concours et dans le cadre d'une initiative ouverte et collaborative, son but était d'accélérer le développement de nouvelles technologies pour la détection de deepfakes.

Un deepfake fait référence à un type de montage qui exploite une technologie d'intelligence artificielle (deep learning) pour par exemple obtenir des vidéos truquées où le visage d'une personne est modifié et remplacé par celui d'une autre personne, voire pour modifier les paroles d'une personne avec la bonne expression faciale correspondante.

Le concours a enregistré 2 114 participants qui ont proposé 35 109 modèles de détection des deepfakes. Les algorithmes de machine learning ont été entraînés et testés en utilisant un jeu de données de 100 000 vidéos avec quelque 3 500 acteurs rémunérés et pour divers scénarios réalistes. Des clips avaient été modifiés par IA pour les visages des acteurs.

Le taux moyen de détection des deepfakes par les algorithmes a été de 70 % et jusqu'à 82,56 % pour le meilleur. Toutefois, lorsque les algorithmes ont été confrontés à un jeu de données en boîte noire, soit avec 10 000 vidéos (deepfakes et clips vidéos normaux) qui n'étaient pas disponibles pour les participants, le meilleur modèle a obtenu un taux de précision de 65,18 %.

L'affaire avait été complexifiée pour le jeu de données en boîte noire, avec par exemple l'ajout de vidéos de maquillage ou encore de peinture susceptibles d'être difficiles à classer par les modèles de détection, sans compter d'autres artifices.

Des progrès restent donc à accomplir et la mise à disposition des algorithmes gagnants en open source pour les chercheurs va y contribuer. De son côté, Facebook n'envisage pas d'utiliser des modèles gagnants et garde le secret sur sa propre technologie de détection.