La Haute Autorité de Santé (HAS) a publié ses premières recommandations sur l'IA générative. Elle reconnaît leur potentiel comme levier d'amélioration pour les soignants mais insiste sur un usage "raisonné" et prudent.

La vigilance face aux hallucinations et la protection de la confidentialité des patients sont au cœur des préoccupations.

L'adoption massive des systèmes d'IA générative, de ChatGPT d'OpenAI (et ses 800 millions d'utilisateurs) à Mistral AI, ne pouvait laisser le monde de la santé indifférent. Ces technologies, désormais ancrées dans le quotidien, soulèvent autant d'espoirs que de craintes.

C'est dans ce contexte que la Haute Autorité de Santé (HAS) a publié ce jeudi 30 octobre 2025 ses premières recommandations. L'autorité indépendante, dont les avis façonnent les politiques de santé françaises, juge que ces outils peuvent être un "levier d'amélioration", à condition de respecter une "démarche raisonnée".

Un potentiel certain, des risques identifiés

La HAS ne ferme pas la porte, loin de là. Elle estime que l'IA peut servir à des fins très variées. Cela va de l'aide à la gestion des ressources d'un établissement à la synthèse de la littérature scientifique complexe. L'institution voit aussi un intérêt pour traduire des informations médicales en termes clairs pour les patients.

Mais l'autorité appelle à la plus grande vigilance. Le risque principal identifié est celui des hallucinations, cette capacité qu'a l'IA de présenter des affirmations totalement fausses, ne correspondant à aucune réalité, avec un aplomb déconcertant.

La vérification et la confidentialité : piliers de la prudence

Face à ce danger, la HAS martèle un impératif : les soignants doivent systématiquement vérifier les sources utilisées par l'IA. Il est recommandé de les "consulter dès que nécessaire" et de les croiser avec "d'autres sources fiables".

L'autre enjeu majeur est évidemment la confidentialité. L'autorité rappelle qu'il faut s'assurer qu'aucune information "permettant l'identification directe ou indirecte ou relevant du secret médical" ne soit partagée dans les requêtes (ou prompts).

"AVEC" : la méthode pour ne pas perdre la main

Surtout, la HAS insiste pour que les professionnels ne se reposent pas entièrement sur ces outils. L'objectif est de ne pas "endormir" ou perdre ses propres compétences.

Pour guider les soignants, la HAS a structuré son guide concis autour de quatre lignes directrices, résumées par l'acronyme A.V.E.C. : Apprendre (s'approprier l'outil), Vérifier (contrôler les contenus), Estimer (analyser la pertinence) et Communiquer (échanger avec les collègues et les patients).

Ce document n'est qu'une première étape. La HAS a déjà annoncé que de futures recommandations s'adresseront cette fois directement aux patients. Un enjeu crucial, alors que de nombreux utilisateurs se tournent déjà vers l'IA pour des questions sur leur santé, au risque d'obtenir des avis non fiables.