La plateforme de vidéos en ligne de Google publie son premier rapport trimestriel YouTube Community Guidelines enforcement. Il fait écho aux rapports de transparence de Google, et pour la modération de contenus sur YouTube.

YouTube-report-history D'après ce rapport, YouTube a supprimé 8,28 millions de vidéos sur la période allant d'octobre à décembre 2017. La majorité de ces vidéos étaient du spam ou des tentatives de mettre en ligne du contenu pour adultes.

Sur ces plus de 8 millions de vidéos problématiques, 6,7 millions ont d'abord été repérées grâce à du machine learning, et donc une identification automatique par des algorithmes. Pour 76 % d'entre elles (soit plus de 5 millions), le retrait a eu lieu avant de générer une vue.

YouTube ajoute que sous la houlette du machine learning, " plus de la moitié des vidéos supprimées pour extrémisme violent avaient moins de dix vues. "

Concernant les signalements humains, près de 30 % ont concerné des contenus à caractère sexuel. Suivent le spam (26,4%), les contenus haineux (15,6 %) et les contenus violents (13,5 %).

Avec la publication de ce rapport de transparence, YouTube en profite pour introduire un tableau de bord de l'historique des signalements pour des vidéos signalées par un utilisateur.