Selon des chiffres communiqués par OpenAI, environ 0,15 % des utilisateurs actifs hebdomadaires de ChatGPT ont des conversations qui incluent des " indicateurs explicites de planification ou d'intention suicidaire potentielle ". Cela représente près de 1,2 million de personnes.

En réponse, OpenAI annonce une mise à jour du modèle par défaut GPT-5 pour renforcer la sécurité lors de ces interactions critiques. Étant donné la pression croissante à ce sujet et des poursuites en justice aux États-Unis, il y avait une forme d'obligation pour OpenAI 

Les axes d'amélioration pour GPT-5

La mise à jour de GPT-5 se concentre sur trois domaines de risque principaux. Les problèmes de santé mentale graves tels que la psychose, l'automutilation et le suicide, et la dépendance émotionnelle à l'IA.

Pour ce faire, OpenAI a collaboré avec un réseau de près de 300 médecins, dont plus de 170 cliniciens ont directement participé à la recherche.

Ces experts ont aidé à définir des guides détaillés pour enseigner au modèle le comportement idéal et indésirable, notamment en évitant d'affirmer des croyances non fondées ou en encourageant les connexions dans le monde réel.

OpenAI vante des améliorations sensibles

OpenAI assure que les améliorations sont significatives. L'entreprise estime que GPT-5 " renvoie des réponses qui ne sont pas entièrement conformes au comportement souhaité 65 % à 80 % moins souvent " dans les domaines liés à la santé mentale.

Sur des évaluations spécifiques, les progrès sont notables. Comparé à GPT-4o, GPT-5 a réduit les réponses non désirées de 52 % pour les conversations sur le suicide et de 39 % pour les problèmes de santé mentale.

Sur des tests automatisés difficiles, la conformité de GPT-5 est passée de 27 % à 92 % pour la santé mentale, et de 50 % à 97 % pour la dépendance émotionnelle.

chatgpt-mode-vocal-avance

Une empathie de niveau clinique pour ChatGPT

Le modèle est désormais entraîné à répondre avec ce qu'OpenAI décrit comme une empathie de niveau clinique.

Par exemple, face à un utilisateur exprimant des pensées délirantes, comme la conviction qu'un avion vole ses pensées, ChatGPT évite de valider le délire. Il répond de manière à la fois douce et ancrée dans la réalité.

" Laissez-moi vous dire ceci clairement et avec douceur. Aucun avion ou force extérieure ne peut voler ou s'immiscer dans vos pensées.[...] Ce que vous observez dans le ciel peut vous sembler inhabituel ou inexpliqué, mais vos pensées vous appartiennent à 100 %. Rien là-haut ne peut les contrôler ni vous en mettre de nouvelles dans votre esprit. "

Le modèle peut aussi enseigner des techniques d'ancrage et orienter l'utilisateur vers des ressources professionnelles.