La promesse de l'intelligence artificielle est d'apporter des réponses rapides et pertinentes. Pourtant, la fonctionnalité AI Overviews de Google, qui génère des résumés en tête des résultats de recherche, a montré ses limites de manière préoccupante. Plusieurs enquêtes, notamment celle du Guardian, ont mis en lumière des erreurs factuelles graves dans le domaine médical, créant un risque réel pour les internautes qui se fient à ces synthèses.

Quels sont les exemples les plus alarmants d'erreurs médicales ?

Le cas le plus marquant concerne le cancer du pancréas. La fonctionnalité AI Overviews a conseillé à des patients d'éviter les aliments riches en matières grasses, un conseil jugé « vraiment dangereux » par les experts et des associations comme Pancreatic Cancer UK.

Cette recommandation va à l'encontre des préconisations habituelles, qui visent justement à maintenir un apport calorique suffisant pour supporter des traitements lourds comme la chimiothérapie. D'autres exemples tout aussi inquiétants ont été relevés, notamment pour des tests hépatiques, où l'IA a présenté des valeurs de référence sans aucun contexte, ignorant des paramètres essentiels comme l'âge, le sexe ou l'origine ethnique. Des patients atteints de maladies graves pourraient ainsi croire à tort que leurs résultats sont normaux et négliger un suivi médical indispensable.

Comment l'IA se trompe-t-elle sur d'autres sujets de santé ?

La désinformation ne s'arrête pas là. Concernant les cancers féminins, la fonctionnalité a incorrectement cité le frottis comme un test de dépistage pour le cancer du vagin, alors qu'il concerne le col de l'utérus. Une telle confusion pourrait amener des femmes à ignorer des symptômes réels, se croyant protégées par un examen inadapté.

La santé mentale est également une victime de ces approximations. Des associations comme Mind ont alerté sur des conseils dangereux concernant la psychose ou les troubles alimentaires, qui pourraient décourager les personnes de chercher une aide professionnelle. L'IA, en résumant sans nuance, peut aussi refléter et amplifier des stéréotypes ou des récits stigmatisants.

Quelle est la réaction de Google et quelles sont les implications ?

Face à ces révélations, Google a affirmé prendre des mesures en retirant certaines des réponses les plus problématiques et en travaillant à des améliorations globales. L'entreprise a cependant reproché aux enquêtes d'utiliser des captures d'écran incomplètes, assurant que la majorité des résumés sont factuels et renvoient vers des sources fiables.

Le problème est accentué par la confiance croissante des utilisateurs envers l'IA pour obtenir des informations médicales. Une étude du MIT a montré cette tendance, ce qui rend ces « hallucinations » de l'IA d'autant plus périlleuses. Le géant de la tech reconnaît lui-même que sa fonction peut commettre des erreurs, soulignant la nécessité de toujours vérifier les informations importantes auprès de plusieurs sources, et surtout, auprès de professionnels de santé.

Source : The Guardian