Avocate universitaire spécialisée dans les droits de l'Homme et rapporteuse spéciale de l'ONU, Fionnuala Ní Aoláin estime que la définition de Facebook pour le terrorisme est " trop large " et imprécise. En conséquence, elle considère que cela peut conduire à une " censure excessive " et un " refus arbitraire " pour l'accès et le recours aux services de la célèbre plateforme.

Dans ses standards de la communauté, on peut notamment lire que Facebook assimile une organisation terroriste à " toute organisation non gouvernementale impliquée dans des actes de violence prémédités contre des individus ou une propriété en vue d'intimider une population civile, un gouvernement ou un organisme international et avec pour objectif d'atteindre un but politique, religieux ou idéologique. "

Pour l'experte onusienne, Facebook favorise ainsi la stigmatisation par des gouvernements de tous les groupes non étatiques impliqués dans diverses formes de dissidence et opposition. Elle considère en outre que la définition retenue est contraire au droit international humanitaire, et regrette l'absence de contrôle indépendant des actions de Facebook.

Facebook

Sous pression dans ce domaine, Facebook fait logiquement la chasse aux contenus terroristes sur sa plateforme par le biais d'une technologie de détection et une équipe de modérateurs dont le contingent a été renforcé.

La technologie fait appel à de la correspondance d'image pour des photos et vidéos terroristes, compréhension linguistique avec des algorithmes de machine learning apprenant comment détecter des publications illicites sur la base de textes de propagande terroriste déjà supprimés.

Au premier trimestre, Facebook a pris des mesures à l'encontre de 1,9 million de contenus de propagande terroriste. Plus de 99 % des contenus ont été supprimés avant un quelconque signalement.