Les dernières semaines ont été agitées pour OpenAI. Si son actualité officielle a été marquée par l'arrivée de GPT-4o, une version offrant plus de possibilités d'interactions à la voix et par l'image, l'entreprise a aussi connu la dissolution de son équipe de sécurité de l'intelligence artificielle et le départ de plusieurs cadres qui en faisaient partie.
Elle était chargée de vérifier que les intelligences artificielles conçues par OpenAI restent dans les limites du cadre qui leur est imposé et n'en viennent pas à constituer une menace.
Cet aspect sera particulièrement important si des intelligences artificielles générales (ou AGI) viennent à émerger avec des capacités dépassant l'humain à tous les niveaux.
Refonte d'un comité de sûreté...piloté par Sam Altman
Face aux inquiétudes liées à la perte de ce filet de sécurité, OpenAI a reconstitué un comité de sûreté qui sera cette fois composé de Sam Altman, dirigeant de la startup, et de Adam d'Angelo et Nicole Seligman, membres du conseil d'administration.
Cette nouvelle entité sera chargée d'émettre des recommandations sur la sécurité des IA et de leur fonctionnement, à charge pour le conseil d'administration de les valider ou pas.
Sam Altman se retrouve donc ainsi au coeur des processus de décision de l'entreprise mais aussi des orientations de sécurité sur l'IA, ce qui n'est pas forcément fait pour rassurer des observateurs déjà interrogatifs sur les pratiques du dirigeant.
La diffusion de documents relatifs à l'épisode de son licenciement surprise l'an dernier suivi d'une réintégration quelques jours plus tard éclaire d'un nouveau jour les circonstances de la crise qu'avait traversée OpenAI à ce moment.
Les dessous du départ et de la réintégration de Sam Altman
Helen Toner, ancienne membre du conseil d'administration qui a participé à la fronde contre Sam Altman, évoque ainsi une volonté de tout contrôler de la part de l'emblématique dirigeant et d'une tendance à cacher des informations, comme son rôle de gestionnaire du fonds OpenAI Startup.
Elle lui reproche également une course en avant dans l'IA au mépris des conséquences qui pourraient subvenir et sa tendance à écarter tous ceux qui ne vont pas dans le sens d'une accélération, impliquant mensonges et manipulations pour parvenir à ses fins.
Le départ de Ilya Sutskever, qui participait au précédent comité de sûreté sur le superalignement des IA, et celui Jan Leike, parti rejoindre l'équipe de sécurité du concurrent Anthropic et de son IA Claude, iraient dans le sens de cette gestion particulière de l'entreprise par Sam Altman.
La création du nouveau comité de sûreté d'OpenAI intervient alors que l'entreprise a confirmé l'arrivée prochaine d'un nouveau modèle d'IA qui pourrait être le fameux GPT-5, attendu depuis longtemps mais toujours pas sorti et dont les capacités dépasseraient de loin celles déjà impressionnantes de GPT-4.
Dans un article à charge, le site Axios se montre assez acide vis à vis de Sam Altman qui présenterait des traits similaires avec les méthodes de Mark Zuckerberg, le patron de Meta, avec des excuses de façade pour les erreurs commises et l'expression publique d'inquiétudes tout en continuant à aller toujours plus loin, sans considération pour les dommages collatéraux intermédiaires.