Face à une surveillance croissante et à des questions de plus en plus pressantes sur l'impact de ses produits, OpenAI a officialisé la formation d'un conseil d'experts. Son objectif est de fournir des orientations sur la manière dont l'IA pourrait affecter la santé mentale, les émotions et la motivation des utilisateurs.
L'initiative concerne directement les produits phares d'OpenAI, le chatbot ChatGPT et le générateur de vidéos Sora. Le groupe d'experts aidera à " définir à quoi devraient ressembler des interactions saines avec l'IA pour tous les âges ", écrit OpenAI.
L'annonce intervient alors que la Federal Trade Commission (FTC) américaine a lancé des enquêtes sur les dangers potentiels des chatbots IA pour les enfants et adolescents, et qu'OpenAI fait face à une poursuite pour homicide involontaire liée au suicide d'un adolescent.
Un rôle consultatif pour l'Expert Council on Well-Being and AI
Le conseil rassemble un panel de huit spécialistes, dont l'expertise couvre des domaines variés et complémentaires tels que la psychologie, la psychiatrie et l'interaction homme-machine.
Le rôle de ce conseil, baptisé Expert Council on Well-Being and AI, est purement consultatif, mais OpenAI assure qu'il sera activement sollicité. Certains des experts avaient déjà été consultés de manière informelle lors du développement des contrôles parentaux de ChatGPT.
Des réunions régulières et des points de contact fréquents sont prévus pour que le conseil puisse évaluer l'approche d'OpenAI, soulever des questions et conseiller sur la manière dont l'IA devrait se comporter dans des situations complexes ou sensibles.
Une simple opération de communication ?
Si la création d'un tel conseil est une démarche positive en apparence, son efficacité réelle reste à prouver. Du reste, OpenAI précise : " Nous restons responsables des décisions que nous prenons ".
À voir ce qui se passera lorsque les avis du conseil divergeront des ambitions d'OpenAI. Faute de pouvoir contraignant...
Par le passé, Meta a mis en place des comités consultatifs, avant de finalement ignorer leurs recommandations lorsque celles-ci entraient en conflit avec ses intérêts commerciaux.