« Nous avons corrigé une erreur qui faisait que certains utilisateurs voyaient dans leur fil Instagram Reels du contenu qui n'aurait pas dû être recommandé », a déclaré un porte-parole de Meta à CNBC. « Nous nous excusons pour cette erreur. »

Les Reels sont des vidéos au format court sur Instagram. Leur but premier est d'être divertissantes et d'inciter une communauté avec des centres d'intérêt communs à participer.

CNBC a pu constater que plusieurs vidéos sur Instagram semblaient montrer des cadavres, des blessures et des agressions violentes. Certaines publications étaient signalées en tant que contenu sensible.

Des témoignages affirment qu'ils ont vu les contenus violents, malgré l'activation du contrôle du contenu sensible et le paramètre de modération le plus élevé.

Des contenus violents normalement écartés

« Pour protéger les utilisateurs des images choquantes, nous supprimons les contenus particulièrement violents ou graphiques, tels que les vidéos montrant des démembrements, des entrailles visibles ou des corps carbonisés », écrit Meta en matière de contenu violent et explicite.

À souligner que l'expression « contenu graphique » peut être trompeuse dans sa traduction en français. « Nous supprimons également les contenus contenant des remarques sadiques à l'égard d'images décrivant la souffrance d'êtres humains et d'animaux. »

Avec des restrictions, Meta autorise néanmoins certains contenus violents s'ils aident à dénoncer et à sensibiliser sur des problématiques importantes. Ils sont alors assortis d'un avertissement.

Un mauvais signal ?

L'erreur commise avec les Reels Instagram a eu lieu alors que Meta a l'intention de revoir ses pratiques de modération et pour favoriser la liberté d'expression dans sa vision américaine.

Du moins aux États-Unis, c'est le fact-checking par des tiers qui en subit les conséquences et sera remplacé par un système de notes de la communauté.

Source : CNBC