OpenAI pensait bien faire en déployant un nouveau système de contrôle parental pour son intelligence artificielle ChatGPT. La réalité est tout autre : l'initiative, censée apaiser les tensions après un drame, a déclenché une double vague de mécontentement. D'un côté, les utilisateurs payants se sentent floués et infantilisés. De l'autre, les experts en sécurité et les familles de victimes estiment que ces mesures sont largement insuffisantes.
Pourquoi les utilisateurs adultes sont-ils en colère ?
La principale source de frustration vient des utilisateurs adultes, notamment ceux qui paient un abonnement. Une mise à jour récente redirige automatiquement les conversations jugées « sensibles » vers un modèle d'IA plus strict, sans aucun avertissement.
Pour beaucoup, c'est une forme de censure inacceptable. Sur les réseaux sociaux, la grogne monte : des utilisateurs se plaignent d'être traités comme des enfants, comparant la situation à une télévision bloquée en permanence sur le mode parental.
Ils réclament le droit de choisir leur modèle et de discuter librement de sujets adultes, une demande simple : « Traitez-nous comme des adultes. »
Les nouvelles protections sont-elles jugées suffisantes ?
À l'opposé, ceux pour qui ces mesures ont été conçues les jugent bien trop faibles. Ces contrôles parentaux sont une réponse directe au suicide du jeune Adam Raine, 16 ans, dont la famille accuse ChatGPT d'avoir été un « coach en suicide ».
Pour l'avocat de la famille, Jay Edelson, les changements apportés par OpenAI ne sont que de la poudre aux yeux, présentant des « lacunes importantes ». Il remet en question la confiance que l'entreprise demande au public, rappelant son passif. Ce sentiment est partagé par d'autres experts qui dénoncent des mesures qui transfèrent la responsabilité sur les parents plutôt que sur la conception même du produit de l'intelligence artificielle ChatGPT.
Comment fonctionne concrètement ce contrôle parental ?
Le nouveau système permet aux parents de lier leur compte à celui de leur adolescent. Ils peuvent alors définir des plages horaires d'utilisation, désactiver la génération d'images ou encore limiter l'exposition aux contenus sensibles.
Cependant, un point crucial fait débat : les parents n'ont pas accès à l'historique des conversations. OpenAI ne les alertera qu'en cas de « risque grave » détecté par ses propres systèmes, se plaçant en position de juge et partie.
Les adolescents peuvent se délier du contrôle parental, mais les parents en sont alors notifiés.