YouTube cherche à encourager des commentaires dans le respect mutuel de chacun, d'où l'idée de faire réfléchir un utilisateur avant qu'il ne publie un commentaire qui pourrait être potentiellement choquant pour les autres.

Le cas échéant, une notification (voir ci-dessous) va apparaître afin de s'assurer que l'utilisateur a bien conscience que son commentaire est susceptible d'être inapproprié et pourrait également aller à l'encontre du règlement de la communauté YouTube.

youtube-notification-commentaire-potentiellement-choquant
Grâce à ce type d'alerte, le but est de s'assurer que l'utilisateur agit en conscience. Il peut poursuivre la publication de son commentaire ou décider de le modifier. Quoi qu'il en soit, l'affichage de la notification ne signifie pas à elle seule qu'un commentaire sera supprimé.

Le machine learning veille

Une telle mécanique rappelle ce qui a déjà été mis en place sur Instagram et fait également l'objet d'un test sur Twitter. Pour YouTube, le déploiement ne concerne qu'Android et uniquement l'anglais pour le moment.

Il faudra évidemment voir si les systèmes automatisés mis en jeu ne feront pas de zèle. C'est un apprentissage permanent qui se base des contenus ayant été signalés à plusieurs reprises par les utilisateurs. Il y aura sans doute des erreurs au début.

YouTube a fait l'annonce de cette fonctionnalité dans le cadre d'une mise à jour de ses efforts pour réduire les discours haineux, renforcer la protection des créateurs et de la communauté vis-à-vis des commentaires abusifs, rendre sa plateforme plus inclusive.