À l'occasion de la publication de son rapport sur l'application des Standards de la communauté, Facebook révèle que sa technologie de détection proactive des discours haineux identifie désormais près de 90 % du contenu effectivement supprimé avant que celui-ci ne soit signalé par une personne.

Plus précisément, c'est un taux de détection par IA qui concerne 88,8 % des contenus haineux retirés au cours des trois premiers mois de l'année, alors qu'il était de 80,2 % au quatrième trimestre 2019. Facebook indique être intervenu sur 9,6 millions de discours haineux au premier trimestre et 5,7 millions au trimestre précédent.

Cela veut dire que les algorithmes ont détecté de manière proactive 8,5 millions de publications pour du contenu haineux au premier trimestre, contre 4,6 millions au quatrième trimestre 2019.

Facebook vante les progrès de sa technologie de machine learning pour l'analyse du langage et ce dans plusieurs langues. Les modèles linguistiques seraient devenus plus précis et plus nuancés pour permettre une identification des contenus.

facebook-ia-memes-haineux

Dans le but d'aller encore plus loin, Facebook a créé un jeu de données de mèmes haineux associant du texte et des images. Il contient plus de 10 000 exemples avec une signification ne prenant son sens qu'en traitant à la fois le texte, l'image et la relation entre eux.

Le jeu de données est à la disposition des chercheurs du domaine dans le cadre d'un défi Hateful Memes Challenge jusqu'au 31 octobre 2020. Quelque 100 000 $ de prix seront attribués pour le développement d'outils aptes à identifier les mèmes haineux.

" Si l'IA n'est pas la seule réponse au défi posé par les discours de haine et autres contenus nuisibles, nous sommes encouragés par les progrès que nous avons réalisés et désireux d'en faire plus ", écrivent les chercheurs de Facebook.