À partir de photos ou de vidéos disponibles en ligne, des cybercriminels n'hésitent pas à les détourner par intelligence artificielle pour produire des deepfakes. Ils peuvent ainsi mener diverses actions malveillantes, y compris des campagnes de sextorsion.
Les contenus manipulés sont à caractère intime, voire pornographique, et les cybercriminels menacent par exemple les victimes prises pour cible de les divulguer publiquement, si elles ne paient pas une rançon.
Depuis le début du deuxième trimestre, le FBI alerte sur une augmentation du nombre de victimes de ce type de sextorsion ayant recours à de fausses images ou vidéos générées à partir de contenus anodins disponibles sur les réseaux sociaux ou le Web.
Victimes chez les adultes et les mineurs
Dans certains cas et avant de devenir des deepfakes, les contenus peuvent également provenir de captures lors de discussions vidéo ou avoir été fournis à la demande des cybercriminels. Les campagnes concernent des adultes, ainsi que des mineurs.
" De nombreuses victimes, dont des mineurs, ignorent que leurs images ont été copiées, manipulées et diffusées jusqu'à ce que quelqu'un d'autre leur en fasse part ", souligne en outre l'agence de police fédérale américaine.
En se basant sur des signalements récents, le FBI indique que les cybercriminels exigent généralement de l'argent ou des cartes-cadeaux pour ne pas partager les deepfakes avec des membres de la famille ou des amis des victimes sur les réseaux sociaux. Certains demandent l'envoi de vraies images ou vidéos à caractère sexuel.
Des signalements qui vont exploser ?
Avec des deepfakes de plus en plus réalistes et faciles à créer grâce au progrès de l'IA, l'alerte du FBI est assez inquiétante, même si de telles arnaques ne sont pas une nouveauté.
" Bien qu'apparemment inoffensives lorsqu'elles sont publiées ou partagées, les images et les vidéos peuvent fournir aux acteurs malveillants une source abondante de contenu à exploiter pour des activités criminelles. "