OpenAI dévoile un plan sur 120 jours pour renforcer la protection des plus jeunes et plus vulnérables utilisateurs de ChatGPT. Cette initiative fait directement suite à des drames, notamment le suicide d'un adolescent de 16 ans, dont les parents accusent le chatbot IA d'avoir joué un rôle.
Un contrôle parental pour rassurer les familles
La mesure phare du plan est l'arrivée du contrôle parental. L'idée est de donner aux parents des outils pour encadrer l'utilisation de ChatGPT par leurs adolescents, sachant que l'âge minimum requis est de 13 ans.
Dès le mois prochain, une nouvelle boîte à outils permettra de mieux superviser l'expérience avec ChatGPT. Les parents pourront lier leur compte à celui leur enfant via une simple invitation par e-mail. Ils seront en mesure de gérer les fonctionnalités comme la désactivation de la mémoire du chatbot IA ou de l'historique des discussions.
Les parents recevront en outre une notification si le système détecte que l'adolescent traverse un « moment de détresse aiguë ». Des règles de comportement de ChatGPT seront par ailleurs adaptées à l'âge des utilisateurs et activées par défaut.
Une IA plus intelligente face aux situations sensibles
OpenAI modifie aussi le cœur de sa technologie. Le routeur en temps réel sera capable de détecter les conversations sensibles.
Lorsqu'un échange montrera des signes de détresse psychologique, il sera automatiquement redirigé vers un modèle de raisonnement tel que GPT-5-thinking. Ces modèles, plus lents, sont conçus pour analyser le contexte en profondeur et mieux appliquer les directives de sécurité.
La disposition intervient après que OpenAI a reconnu que ses protections pouvaient faiblir lors de longues conversations.
Des experts mobilisés pour encadrer l'IA
Pour s'assurer que ces changements vont dans le bon sens, OpenAI s'appuie sur un conseil d'experts sur le bien-être et l'IA. Il réunit des spécialistes du développement des jeunes et de la santé mentale.
Ce conseil collabore avec un réseau mondial de médecins de plus de 250 praticiens de 60 pays. Plus de 90 d'entre eux (de 30 pays), incluant des psychiatres et des pédiatres, ont déjà contribué à la manière dont les modèles doivent se comporter dans des contextes de santé mentale.
OpenAI souligne le renforcement de ce réseau avec des experts des troubles alimentaires ou de la toxicomanie.