L'organisation britannique Internet Watch Foundation (IWF) indique avoir travaillé avec des entreprises pour trouver des solutions techniques afin d'arrêter la diffusion de contenus pédopornographiques en ligne.
C'est dans le cadre de cette initiative que Google publie un outil d'intelligence artificielle qui pourrait permettre d'accélérer l'identification de telles images et leur suppression. Il est gratuitement mis à disposition d'ONG et partenaires industriels par le biais d'un accès à une API Content Safety.
We work with companies like Google to find technical solutions to stop the spread of child sexual abuse content online. Today Google launches an AI tool that could speed up the identification of images, making the internet a safe place for victims & users. https://t.co/opx9Mnn8Q0 pic.twitter.com/LiurFrCZT8
— IWF Hotline (@IWFhotline) 3 septembre 2018
" En utilisant des deep neural networks pour le traitement des images, nous pouvons maintenant aider les examinateurs à trier de nombreuses images en donnant la priorité au contenu CSAM (ndlr : child sexual abuse material) le plus susceptible d'être examiné ", écrit Google.
Il est ainsi question de méthodes d'apprentissage automatique avec une architecture de deep learning, et avec une approche pour trouver des contenus qui ne s'appuie pas exclusivement sur la correspondance avec des empreintes numériques de fichiers déjà connus.