Depuis l'arrivée de ChatGPT fin 2022, des millions de personnes ont adopté les intelligences artificielles pour accéder à l'information. C'est rapide, c'est direct, ça ressemble à un apprentissage sans effort.

Pourtant, une nouvelle étude publiée dans la revue PNAS Nexus, co-dirigée par la professeure Shiri Melumad, vient jeter un pavé dans la mare : cette facilité pourrait en réalité appauvrir notre savoir.

Quel était le protocole de cette étude ?

Pour en arriver à cette conclusion, les chercheurs ont mis en place un protocole expérimental simple mais efficace, impliquant plus de 10 000 participants. Deux groupes ont été formés : le premier devait réaliser un apprentissage sur un sujet donné, comme le jardinage, en utilisant uniquement un chatbot de type ChatGPT. Le second groupe disposait du même objectif, mais ne pouvait utiliser qu'un moteur de recherche classique comme Google, en naviguant entre les différents liens.

Une fois leur recherche terminée, tous les participants devaient rédiger des conseils pour un ami. Les résultats parlent d'eux-même : le groupe ayant utilisé les modèles linguistiques a produit des textes plus courts, des conseils plus génériques et surtout, moins factuels. Pire encore, lorsque ces recommandations ont été soumises à un panel de lecteurs indépendants, elles ont été jugées moins utiles et moins informatives.

Pourquoi cette différence de résultat est-elle si marquée ?

L'explication réside dans un concept clé : la "friction cognitive". Lorsqu'on effectue une recherche sur Google, le processus est plus laborieux. Il faut cliquer sur des liens, évaluer la pertinence des sources, lire, interpréter et synthétiser soi-même les informations. Cet effort, bien que plus contraignant, constitue un engagement actif qui force le cerveau à créer une représentation mentale plus profonde et originale du sujet.

À l'inverse, les IA conversationnelles éliminent toute cette friction. Elles réalisent le travail de synthèse à la place de l'utilisateur, transformant l'apprentissage en un processus passif. Le cerveau reçoit une réponse pré-mâchée, ce qui limite l'effort de réflexion et, par conséquent, la rétention et la profondeur des connaissances. C'est la différence fondamentale entre résoudre un problème de maths et se voir donner directement la solution.

Les chercheurs ont-ils éliminé les autres facteurs ?

Pour s'assurer que le problème venait bien du processus et non des outils, l'équipe a mené d'autres expériences avec des variables contrôlées. Dans l'une d'elles, les participants des deux groupes ont été exposés exactement aux mêmes faits, mais présentés soit sous forme de synthèse par l'IA, soit sous forme de liens bruts. Le résultat est resté identique : la connaissance acquise via la synthèse était plus superficielle.

Une autre expérience a même comparé les résultats de recherche Google traditionnels à la fonctionnalité "AI Overview" de Google. Là encore, la conclusion fut la même. Cela confirme que le problème ne vient pas de la plateforme elle-même, mais bien de la méthode de restitution de l'information. Dès qu'une synthèse est fournie, l'incitation à creuser plus loin disparaît, et l'apprentissage en pâtit.

Quelles sont les implications pour l'éducation et l'avenir ?

Loin de prôner une interdiction, les auteurs appellent à une utilisation stratégique des IA. Pour obtenir une réponse factuelle et rapide, elles restent un outil formidable. Mais pour développer une expertise ou une compréhension profonde d'un domaine, s'en remettre uniquement à elles est contre-productif. Le risque, souligné par d'autres études, est une atrophie progressive de la pensée critique et des capacités de synthèse.

Le véritable défi se situe dans le secteur de l'éducation. Comment équiper les élèves des compétences fondamentales de lecture et d'analyse tout en les préparant à un monde où les IA sont omniprésentes ? Les chercheurs explorent désormais des pistes pour intégrer des "frictions saines" dans les outils d'IA, des garde-fous qui motiveraient les utilisateurs à aller au-delà de la réponse facile pour s'engager activement dans leur apprentissage.

Foire Aux Questions (FAQ)

L'étude suggère-t-elle d'arrêter complètement d'utiliser ChatGPT ?

Non, pas du tout. Les auteurs insistent sur l'importance d'une utilisation intelligente et contextuelle. Les IA sont excellentes pour des réponses rapides et factuelles, mais pour un apprentissage en profondeur, il est préférable de ne pas s'appuyer uniquement sur leurs synthèses.

Quelle est la principale différence entre apprendre avec une IA et avec Google ?

La différence majeure est le niveau d'engagement. La recherche Google impose une "friction" : l'utilisateur doit activement chercher, trier et synthétiser l'information. L'IA, en fournissant une réponse directe, transforme ce processus actif en une réception passive, moins efficace pour la mémorisation et la compréhension.

Est-ce que toutes les IA ont cet effet négatif sur l'apprentissage ?

L'étude se concentre sur les grands modèles linguistiques (LLM) qui fournissent des réponses synthétisées. Le principe s'applique donc probablement à tous les outils qui "font le travail" à la place de l'utilisateur, réduisant ainsi son effort cognitif et l'ancrage des connaissances.