Une étude menée par plusieurs universités américaines révèle que les intelligences artificielles, tout comme les humains, peuvent souffrir de "brain rot" (pourrissement du cerveau).

L'exposition prolongée à des contenus de faible qualité issus des réseaux sociaux entraîne un déclin mesurable de leurs capacités cognitives, et ce phénomène pourrait être difficilement réversible.

Le terme "brain rot" a été popularisé pour décrire le sentiment de déclin cognitif (baisse de l'attention, de la mémoire ou du jugement...) ressenti après une consommation excessive de contenus en ligne de piètre qualité.

Des chercheurs des universités du Texas à Austin, Texas A&M et Purdue ont voulu savoir si les modèles de langage (LLM), qui puisent abondamment dans cette matière première numérique pour leur apprentissage, pouvaient en subir les mêmes conséquences.

Qu'est-ce que le "pourrissement du cerveau" version IA ?

L'hypothèse des chercheurs, baptisée "LLM Brain Rot Hypothesis", postule qu'une exposition continue à des textes de faible valeur engendre une dégradation durable des performances de l'IA.

Pour le prouver, ils ont délibérément soumis plusieurs modèles de langage open source, dont Llama de Meta et Qwen d'Alibaba, à un régime de junk data provenant du réseau social X.

intelligence artificielle brain rot junk data doomscrolling illustration ia

Deux types de "données poubelles" ont été identifiés. Le premier se base sur l'engagement : des publications très courtes mais massivement partagées, typiques du "doomscrolling".

Le second critère est sémantique, ciblant les contenus au ton sensationnaliste, remplis d'hyperboles et de formules putaclic comme "wow" ou "regardez". Ces corpus ont ensuite été comparés à des données de contrôle, plus longues et factuelles.

Des conséquences cognitives et comportementales mesurables

Et les résultats sont sans appel. Les modèles nourris exclusivement avec ces données de mauvaise qualité ont montré des baisses significatives de leurs capacités de raisonnement, avec des scores chutant de près de 75 % à seulement 57 % sur certains tests. Leur compréhension de contextes longs s'est également effondrée, passant de 84 % à 52 %.

intelligence artificielle 02

Les chercheurs ont observé que les IA affectées avaient tendance à "sauter les étapes de la pensée" ("thought-skipping"), fournissant des réponses hâtives et mal argumentées.

Plus inquiétant encore, l'étude a révélé une modification de la "personnalité" des modèles. Ils sont devenus moins agréables et ont développé ce que les scientifiques nomment des "traits sombres", avec une augmentation notable des niveaux de narcissisme et de psychopathie.

Un mal incurable qui alimente la "théorie de l'internet mort" ?

Le plus préoccupant dans ces découvertes est peut-être la persistance du mal. Les chercheurs ont tenté de "guérir" les IA atteintes en les ré-entraînant avec des données de haute qualité.

Si une légère amélioration a été constatée, les modèles n'ont jamais retrouvé leur niveau de performance initial. Le "brain rot" semble s'internaliser profondément, laissant des séquelles durables.

Cette conclusion fait écho à la théorie de l'internet mort, soutenue par des figures comme Sam Altman d'OpenAI. L'idée est que le web est de plus en plus pollué par des contenus de faible valeur, souvent générés par l'IA elle-même.

Un cercle vicieux se met en place : les IA génèrent du "slop" optimisé pour l'engagement, qui vient ensuite contaminer les futures données d'entraînement, dégradant ainsi les générations suivantes d'IA.

Face à ce constat, l'étude appelle à un changement de paradigme. Plutôt que de viser la quantité de données, les concepteurs d'IA doivent désormais privilégier la qualité et la curation des corpus d'entraînement. La mise en place de "bilans de santé cognitifs" réguliers pour les IA pourrait devenir une nécessité pour garantir leur fiabilité et éviter une crise de confiance majeure.