Un nouveau rapport d'Amnesty International met le feu aux poudres. L'ONG accuse une nouvelle fois TikTok et son algorithme de créer un véritable « terrier de lapin » toxique pour les jeunes utilisateurs, les enfermant dans des boucles de contenus dangereux liés à la dépression et au suicide.

Comment l'algorithme de TikTok fonctionne-t-il concrètement ?

L'enquête d'Amnesty est édifiante. En créant de faux comptes d'adolescents de 13 ans, les chercheurs ont montré qu'un simple intérêt pour des vidéos sur la tristesse déclenche une avalanche.
En moins d'une heure, le fil « Pour toi » se gorge de contenus dépressifs. Après seulement quelques heures de navigation, des vidéos glorifiant le suicide ou donnant des détails sur des méthodes apparaissent explicitement. Ce mécanisme, conçu pour maximiser l'engagement, est au cœur du modèle économique de la plateforme.

Quelles sont les conséquences pour les jeunes et leurs familles ?

Les conséquences décrites sont dramatiques. Le rapport compile des témoignages poignants de jeunes ayant pratiqué l'automutilation et de parents endeuillés.
En France, la situation est telle que 11 familles se sont regroupées dans un recours collectif contre l'entreprise. Elles la tiennent pour responsable de la dégradation de la santé mentale de leurs enfants, incluant les cas tragiques de deux adolescentes de 15 ans décédées.

Quelle est la réaction de TikTok et des autorités ?

Face à ces accusations répétées, TikTok se défend en critiquant la méthodologie de l'ONG, estimant qu'elle ne reflète pas une utilisation « réelle ». La plateforme assure prendre des mesures proactives pour la sécurité des mineurs.
Cependant, Amnesty juge ces efforts largement insuffisants et dénonce une inaction persistante. L'ONG a donc décidé de saisir l'Arcom en France et appelle la Commission européenne à intégrer ces nouvelles preuves dans son enquête déjà en cours au titre du Digital Services Act (DSA).