C'est une histoire qui rappelle avec force qu'il ne faut pas croire tout ce que l'on lit sur internet, et encore moins quand il s'agit de conseils médicaux donnés par une intelligence artificielle. Un homme de 60 ans, souhaitant mener une "expérience personnelle" pour sa santé, a demandé à ChatGPT comment remplacer le sel de table. Sur la base de la réponse du chatbot, il a commencé à utiliser du bromure de sodium, une substance chimique achetée sur internet, et a fini aux urgences.

openai-chatgpt

Trois mois d'intoxication silencieuse

Inspiré par ses anciennes études en nutrition, cet homme voulait éliminer le chlorure de sodium de son alimentation. Après sa discussion avec l'IA, il a donc assaisonné ses plats avec du bromure de sodium pendant près de trois mois. Peu à peu, son état s'est dégradé. Il a développé des symptômes psychiatriques sévères : une paranoïa aiguë, le persuadant que son voisin tentait de l'empoisonner, ainsi que des hallucinations visuelles et auditives. Une fois admis à l'hôpital, sa méfiance était telle qu'il refusait de boire l'eau qu'on lui proposait, malgré une soif évidente.

Le diagnostic : une intoxication d'un autre temps

Face à ce tableau clinique et en l'absence de tout antécédent psychiatrique, les médecins ont rapidement suspecté une intoxication. Le diagnostic est tombé : l'homme souffrait de bromisme. Il s'agit d'une intoxication au bromure, une condition devenue rare mais qui était bien connue au début du XXe siècle, lorsque le bromure de sodium entrait dans la composition de nombreux médicaments contre l'insomnie ou l'anxiété. Aujourd'hui, cette substance est principalement utilisée pour le traitement de l'eau des spas et des piscines. Après trois semaines d'hospitalisation, dont un passage en service de psychiatrie, les symptômes du patient se sont heureusement améliorés.

bromure de sodium

Bromure de sodium
Crédits : Stanford Advanced Materials

Une IA sans mise en garde ni sens critique

Ce cas a fait l'objet d'un rapport scientifique dans les Annals of Internal Medicine. Les auteurs soulignent les dangers de l'IA dans le domaine de la santé. En tentant de reproduire la situation, ils ont posé une question similaire à ChatGPT et ont obtenu une réponse qui incluait bien le bromure, mais sans avertissement sanitaire clair. Les chercheurs concluent que « ChatGPT et d’autres systèmes d’IA peuvent générer des inexactitudes scientifiques, manquer de capacité à discuter les résultats de manière critique et, en fin de compte, alimenter la diffusion de fausses informations. »

Un rappel à la prudence indispensable

Cette mésaventure est un puissant rappel à l'ordre. Bien que des études montrent que ChatGPT peut fournir des informations de santé correctes dans une majorité de cas (environ 88 %, d'après une étude de la revue Radiology), les erreurs peuvent avoir des conséquences désastreuses. L'intelligence artificielle n'a pas le discernement d'un professionnel de la santé et peut fournir des informations hors de leur contexte. D'ailleurs, OpenAI, le créateur de ChatGPT, précise bien dans ses conditions d'utilisation que son service ne doit pas être utilisé pour obtenir des conseils médicaux. Pour toute question de santé, un seul réflexe : consulter un médecin.