Dans le cadre d'un programme pilote aux États-Unis, Facebook va s'attacher les services d'une communauté d'examinateurs qui travailleront en tant que " chercheurs " pour renforcer et améliorer la lutte contre la désinformation.

Cette communauté sera constituée d'utilisateurs (pas des employés de Facebook) qui seront des sous-traitants auprès de partenaires du groupe. Ils devront être représentatifs de la communauté des utilisateurs de Facebook aux États-Unis dans la pluralité de ses points de vue.

Leur mission sera d'examiner du contenu signalé par des algorithmes de machine learning comme pouvant relever de l'infox et avant un envoi à des fact-checkers tiers. " Cela permettra aux vérificateurs de faits de voir rapidement si un groupe représentatif d'utilisateurs de Facebook a trouvé une affirmation corroborée ou contredite ", écrit Facebook.

facebook-fact-checking

Avec le contenu signalé, une décision finale ne sera pas prise par cette communauté spécifique d'utilisateurs. Elle permettra surtout d'apporter du contexte supplémentaire pour la décision de modérateurs officiels.

" Nous pensons qu'en combinant l'expertise de vérificateurs de faits tiers avec un groupe d'examinateurs communautaires, nous pouvons évaluer plus rapidement la désinformation et faire encore plus de progrès en réduisant sa prévalence sur Facebook. "

Ce programme pilote montre à quel point la problématique des fake news n'est pas si simple à régler avec un coup de baguette magique à base de machine learning. Mais, il s'agit aussi de permettre à un tel système de continuer d'apprendre.