Loin d'être des sources d'information infaillibles, les assistants d'intelligence artificielle les plus populaires montrent des faiblesses préoccupantes. Une étude d'une ampleur sans précédent, coordonnée par l'Union Européenne de Radio-Télévision (UER) et menée par la BBC, révèle que ces outils déforment systématiquement l'actualité, et ce, quelle que soit la langue ou la plateforme testée. Le verdict est sans appel.
Quels sont les chiffres concrets de cette étude ?
L'analyse a porté sur quatre grands assistants IA : ChatGPT, Copilot, Gemini et Perplexity. Sur plus de 3 000 réponses analysées par des journalistes professionnels issus de 22 médias publics, le bilan est sévère : 45 % d'entre elles présentaient au moins un problème significatif.
Dans le détail, les failles sont multiples. 31 % des réponses affichaient de graves problèmes de sources (manquantes, trompeuses ou incorrectes) et 20 % contenaient des erreurs factuelles majeures, comme des informations obsolètes ou des "hallucinations". Gemini se distingue comme le moins performant, avec un taux d'erreur significatif de 76 %, principalement dû à ses lacunes en matière de citation des sources.
Pourquoi cette déformation de l'information est-elle si problématique ?
Ces défaillances répétées mettent en péril la confiance du public dans un écosystème médiatique déjà fragile. Selon Jean Philip De Tender, directeur des médias de l'UER, il ne s'agit pas d'incidents isolés mais bien d'un problème « systémique, transfrontalier et multilingue ». Le risque est qu'à force de ne plus savoir à quoi se fier, le citoyen ne fasse plus confiance à rien, ce qui peut nuire à la participation démocratique.
Le phénomène est d'autant plus inquiétant que l'usage de ces outils pour s'informer est en pleine croissance. Le Digital News Report 2025 du Reuters Institute indique que 7 % des consommateurs d'actualités en ligne utilisent déjà les assistants IA, un chiffre qui grimpe à 15 % chez les moins de 25 ans. Ces erreurs et cette désinformation pourraient, à terme, impacter négativement la réputation des médias traditionnels, souvent accusés à tort des erreurs générées par l'IA.
Quelles sont les solutions envisagées face à ce constat ?
Face à cette situation, l'UER et ses membres exhortent les régulateurs européens et nationaux à faire appliquer les lois existantes sur l'intégrité de l'information, les services numériques et le pluralisme des médias. Un suivi indépendant et régulier de ces technologies est jugé essentiel pour suivre leur évolution rapide.
Parallèlement, un guide pratique, le "News Integrity in AI Assistants Toolkit", a été publié pour aider à corriger les problèmes identifiés. Il vise à la fois à améliorer la qualité des réponses des IA et à renforcer l'éducation aux médias des utilisateurs. Peter Archer de la BBC souligne la volonté de collaborer avec les entreprises technologiques : « Nous voulons que ces outils réussissent, mais les gens doivent pouvoir faire confiance à ce qu'ils lisent, regardent et voient ».