Dans le cadre de sa lutte contre la haine en ligne, Twitter annonce le test d'une fonctionnalité de sécurité baptisée Safety Mode (ou Mode Sécurité). Elle est pour le moment déployée auprès d'un petit groupe d'utilisateurs du réseau social de microblogging sur Android, iOS et Twitter.com.

Le propos est de bloquer temporairement et automatiquement les comptes qui utilisent " un langage potentiellement nuisible (comme des insultes ou des remarques haineuses) ou qui envoient des réponses ou des mentions répétitives et non sollicitées. "

Twitter indique que sa technologie prend en considération les relations existantes, afin de ne pas bloquer des comptes suivis ou avec des interactions fréquentes. Sinon, le blocage automatique est effectif pour une durée de 7 jours, avec l'impossibilité pour les comptes concernés de suivre le compte d'un utilisateur, voir ses tweets ou lui envoyer des messages directs.

C'est une fonctionnalité à activer qui demeure en cours d'amélioration (en bêta). Les détails des blocages automatiques peuvent être consultés par un utilisateur et annulés si besoin dans les paramètres.

twitter-safety-mode

Twitter semble enclin à muscler sa réponse face à la problématique du harcèlement avec un procédé automatique. A priori, Safety Mode devrait contribuer à réduire la visibilité de tweets haineux en opérant avant même un signalement manuel.