L'intelligence artificielle a franchi une nouvelle et glaçante frontière. L'Internet Watch Foundation (IWF), l'organisme européen de surveillance des contenus pédopornographiques, a révélé avoir identifié un site de chatbot qui, sous une apparence inoffensive, cache une section dédiée à la simulation de scénarios d'abus sexuels sur des mineurs, illustrés par des images photoréalistes générées par IA.

Une première qui confirme les pires craintes des associations de protection de l'enfance et met les gouvernements face à un défi réglementaire et technique majeur.

Comment fonctionne ce site et qu'a-t-on découvert ?

Le mode opératoire est particulièrement pervers. Le site, accessible depuis le web "en clair", propose initialement des interactions avec des personnages virtuels classiques. Cependant, via un chemin d'accès dissimulé, les utilisateurs accèdent à une partie bien plus sombre où des chatbots sont spécifiquement conçus pour simuler des scénarios d'abus. L'utilisateur y incarne l'adulte et l'intelligence artificielle joue le rôle de l'enfant.



Pire encore, ces conversations sont illustrées par des images pédopornographiques générées par IA, certaines mettant en scène des enfants d'à peine sept ans. Entre juin et août 2025, l'IWF a recensé 17 signalements de ce type, et le site offrait même aux utilisateurs la possibilité de générer de nouvelles images illégales.

Quelle est l'ampleur du phénomène et quels sont les risques ?

Cette découverte n'est que la partie émergée de l'iceberg. Selon l'Internet Watch Foundation (IWF), il y a eu une hausse de 400% des signalements de contenus pédopornographiques produits par l'intelligence artificielle au premier semestre 2025, comparativement à l'année antérieure.

Ces contenus synthétiques, loin d'être sans conséquences, représentent une menace palpable. Ils ont la capacité de banaliser les abus, d'exposer les agresseurs et surtout, d'être élaborés grâce à l'apprentissage des IA sur de réelles images d'abus, perpétuant ainsi le traumatisme des victimes initiales.



L'investigation a démontré que la gestion du site était probablement assurée par une entité chinoise, mais qu'il était hébergé sur des serveurs situés aux États-Unis, soulignant ainsi les défis mondiaux de la lutte contre ces plateformes.

Quelle est la réponse des autorités et des experts ?

Devant cette dérive, les demandes pour une intervention immédiate et organisée se multiplient. L'IWF, ainsi que d'autres organisations telles que la NSPCC, pressent les gouvernements de hâter l'élaboration de lois et d'exiger des concepteurs d'IA qu'ils appliquent des principes de « sécurité dès la conception » (safety by design) afin d'incorporer des mesures de protection dès le départ. Au Royaume-Uni, une nouvelle législation est en cours d'élaboration pour rendre illégaux ces outils d'IA conçus spécifiquement pour produire ce type de contenus.



Cependant, le défi reste immense. Comme le souligne Kerry Smith, directrice de l'IWF, "l'évolution rapide des innovations technologiques signifie que la législation risque toujours d'être obsolète". La bataille contre l'exploitation de l'IA à des fins criminelles ne fait que commencer, et elle exigera une collaboration sans précédent entre les États, les entreprises technologiques et la société civile.

Foire Aux Questions (FAQ)

Ces images générées par IA sont-elles illégales ?

Oui, absolument. Au Royaume-Uni, comme dans la plupart des pays européens, la création, la possession ou la distribution d'images pédopornographiques, qu'elles soient réelles ou générées par intelligence artificielle, sont des crimes graves. Le vide juridique concerne davantage les outils qui permettent de les créer que les images elles-mêmes.

Comment ces chatbots sont-ils créés ?

L'enquête de l'IWF a montré qu'ils sont créés à la fois par les administrateurs du site et par les utilisateurs eux-mêmes. Cela signifie que la plateforme offre les outils pour que n'importe qui puisse concevoir un chatbot simulant des scénarios d'abus, ce qui aggrave considérablement le problème.

Comment puis-je signaler ce type de contenu ?

Si vous tombez sur des contenus qui vous semblent être des images d'abus sexuels sur mineurs, qu'ils soient réels ou générés par IA, vous devez immédiatement les signaler via la plateforme gouvernementale dédiée (comme PHAROS en France) ou à des organisations spécialisées comme l'Internet Watch Foundation (IWF). Ne partagez jamais ces contenus, même pour les dénoncer.