Microsoft inaugure un rapport de transparence (PDF) concernant la plateforme de jeu Xbox et les actions qui ont été entreprises en matière de modération du contenu. Une communauté qui serait de quelque 3 milliards de joueurs dans le monde.

Au cours du premier semestre de cette année 2022, plus de la moitié (57 %) des sanctions prises ont concerné 4,33 millions de comptes. En l'occurrence, une modération proactive qui a touché des faux comptes. Ces comptes sont généralement créés par des bots. Une catégorie qui touche aussi la triche.

Avec le plus souvent une suspension temporaire, le total des comptes touchés par une modération proactive au cours des six premiers mois de l'année atteint 4,78 millions. Hormis les faux comptes, il s'agissait principalement de la présence d'un contenu sexuel pour adultes, fraude, harcèlement ou intimidation, langage obscène et phishing.

La modération proactive devant la modération réactive

Par définition, les sanctions proactives sont prises avant que les contenus problématiques n'atteignent la communauté des joueurs. Elles ont représenté 65 % du total des sanctions. La modération proactive a été multipliée par 9 par rapport à la même période l'année dernière.

Cette montée en charge colossale de la modération proactive a permis de prendre le pas sur la modération dite réactive quand c'est un joueur qui attire l'attention sur quelque chose, et non à la suite de la détection par le système mis en place.

La modération réactive a tout de même concerné 2,53 millions de comptes sur le premier semestre.

xbox-rapport-transparence

Des signalements de joueurs en baisse

Un total de 33,08 millions de signalements ont été effectués par les joueurs eux-mêmes entre janvier 2022 et juin 2022. Le rapport de transparence note cependant que c'est une baisse constante au cours des dernières années, malgré une base de joueurs qui ne cesse de prendre de l'ampleur de son côté.

Les signalements des joueurs ont porté sur des communications abusives, la tricherie et des comportements antisportifs, et dans une moindre mesure du contenu créé par les utilisateurs comme des captures d'écran ou des surnoms offensants.

" Les agents responsables de la modération de contenu travaillent 24 heures sur 24, 7 jours par semaine et 365 jours par an pour s'assurer que le contenu et la conduite trouvés sur notre plateforme respectent nos Standards de la Communauté ", écrit le responsable des Xbox Player Services.