Alors qu'OpenAI a vu partir plusieurs salariés en charge de la question du danger des IA et des filets de sécurité à mettre en place et a préféré reconstituer un comité de sûreté intégrant le CEO Sam Altman et des membres du conseil d'administration, dans un curieux mélange des genres, certains salariés s'inquiètent de la tournure des événements.
Dans une lettre ouverte, plusieurs employés d'OpenAI, anciens ou toujours en poste, certains nommés, d'autres anonymes, et de Google DeepMind appellent les entreprises spécialisées dans l'IA à faire preuve de beaucoup plus de transparence dans la question du risque associé aux intelligences artificielles.
Les IA génératives sont déjà très puissantes et peuvent être utilisées à des fins malveillantes mais ce ne sera rien comparé aux intelligences artificielles générales (AGI) qui seront cette fois plus malines que les humains.
Ne pas museler les lanceurs d'alerte
Cette question de la singularité (quand les IA deviendront plus intelligentes que les humains) est à la fois une quête et un sujet de crainte si l'AGI décidait de se retourner contre l'humanité.
Or, les interrogations se multiplient concernant la volonté des startups de l'IA de réfléchir sérieusement aux dangers des IA, embarquées qu'elles sont dans la course à leur développement.
Sans rejeter les travaux en cours, la lettre ouverte appelle les entreprises de l'IA à faire preuve de beaucoup de plus de transparence sur les risques associés et de laisser circuler les informations, sans persécuter les lanceurs d'alerte.
Parmi les signataires, on trouve Daniel Kokotajlo qui indiquait avoir quitté OpenAI en avril après avoir perdu confiance dans la capacité d'OpenAI d'agir de façon responsable dans la création d'une AGI, faisant écho à la refonte du comité de sûreté en charge du superalignement après le départ de Ilya Sutskever juste après l'annonce de GPT-4o.
Une course à l'IA qui néglige les risques
Dans une longue série de messages sur le réseau social X, Kokotajlo dévoile les coulisses en relevant qu'aucun véritable effort de sécurité n'a été mis en place et qu'on lui a demandé de signer un accord dans lequel il ne devait émettre aucune critique concernant l'entreprise.
Tout en saluant le travail sur l'IA, il souligne le manque de recul et de compréhension des conséquences des intelligences artificielles générales. Pour ces raisons, laisser s'exprimer et écouter les avis mettant en avis ces problématiques devrait être garanti avec des dispositifs adaptés et sans chercher à museler ou intimider ceux qui doutent.
Mais entre les impératifs économiques, la volonté d'être le premier à faire émerger des intelligences artificielles toujours plus performantes et la prise de recul ainsi que la nécessité de mettre en place des sécurités, et donc de limiter le potentiel des IA, l'équilibre reste délicat.