Une analyse automatisée ne peut pas tout. Pour examiner les publicités, Facebook s'appuie aussi sur l'humain et a annoncé le renforcement de ses équipes. Alors que les efforts dans le machine learning vont s'intensifier, plus d'un millier de personnes vont dans le même temps être recrutées avec pour but d'améliorer la détection et la suppression de publicités inappropriées.

L'annonce avait été faite alors que le réseau social a divulgué au Congrès américain les 3 000 publicités qui auraient été indirectement payées par la Russie et diffusées lors de la dernière campagne présidentielle. En septembre, Facebook expliquait avoir découvert qu'entre juin 2015 et mai 2017, 471 comptes et pages avaient diffusé ces publicités payées 100 000 $ et en violation de sa politique d'utilisation.

Portant sur des sujets comme les droits LGBT, les questions raciales, l'immigration et les armes, les messages sponsorisés " russes " ont été vus par environ 10 millions de personnes aux États-Unis, avec potentiellement une influence sur la campagne présidentielle en touchant à des thématiques sensibles dans l'opinion.

Facebook-bulle

Axios rapporte que Facebook vient d'indiquer dans un email envoyé à des annonceurs que des publicités qui ciblent certains groupes et abordent des questions politiques, religieuses, ethniques ou sociales vont commencer à être examinées manuellement.

Les annonceurs sont prévenus que cet examen humain aura un impact sur le délai de lancement de nouvelles campagnes promotionnelles, du moins le temps que tout se mette en place. Facebook escompte améliorer la procédure au fil du temps.

C'est quelque part l'aveu que la procédure essentiellement algorithmique avait des failles. Des failles qui existent aussi avec les fake news.