Une vaste étude menée par la BBC et l'UER (Union européenne de radio-télévision) révèle que près de la moitié des réponses des assistants IA comme ChatGPT ou Gemini sur l'actualité comportent des failles significatives.
Cette "distorsion systémique" soulève de sérieuses questions sur la fiabilité de ces outils et leur impact sur la confiance du public, avec des erreurs allant du sourçage défaillant à la confusion entre faits et satire.
Le recours aux chatbots pour obtenir des réponses rapides sur l'actualité est devenu une pratique courante, particulièrement chez les plus jeunes. Selon l'Institut Reuters, 15% des moins de 25 ans s'appuient déjà sur ces outils pour construire leur vision du monde.
Pourtant, une recherche approfondie menée au premier semestre 2025 met en lumière une réalité préoccupante quant à la qualité de l'information restituée par ces technologies émergentes.
Un diagnostic alarmant et des chiffres sans appel
L'étude, qui a impliqué 22 médias de service public européens dont Radio France, a soumis quatre assistants IA majeurs : Copilot, ChatGPT, Perplexity et Gemini, à une série de 30 questions d'actualité.
Les résultats sont édifiants : 45% de la totalité des réponses générées présentaient au moins un problème significatif. Les défaillances les plus courantes concernent le sourçage des informations, avec 31% de retours affichant des attributions manquantes, trompeuses ou tout simplement incorrectes.
Gemini, le maillon faible de l'information
Parmi les plateformes testées, l'assistant Gemini de Google se distingue par des performances particulièrement médiocres. À l'échelle européenne, il est responsable de 76% des réponses contenant des problèmes significatifs, soit plus du double de ses concurrents.
Le cas de Radio France est encore plus critique, où ce chiffre grimpe à 93%. L'étude rapporte un exemple frappant : Gemini a traité une chronique satirique de France Inter comme une source d'information factuelle, propageant ainsi une fausse nouvelle tout en s'appuyant sur la réputation d'un média fiable.
Au-delà des erreurs, une imitation dangereuse du journalisme
Les problèmes identifiés ne se limitent pas à de simples erreurs. L'étude met en évidence des défaillances systémiques qui touchent à la nature même de l'information.
20% des réponses contenaient des inexactitudes majeures, comme des détails hallucinés ou des données obsolètes. Plus grave encore, les IA peinent à distinguer les faits des opinions, comme l'a montré ChatGPT en concluant une réponse par un avis non attribué, risquant de le faire passer pour celui du média source.
Comme le souligne un responsable de la BBC, ces outils "imitent l'autorité du journalisme, mais n'atteignent pas sa rigueur".
Face à ce constat, l'UER et la BBC appellent les entreprises de la tech à corriger ces failles de toute urgence. Ils préparent un guide de bonnes pratiques pour les développeurs et appellent les régulateurs à une vigilance accrue.
La question reste ouverte : comment garantir l'intégrité de l'information à une époque où la frontière entre la production humaine et la génération algorithmique devient de plus en plus floue ?