Artisan de la mise en retrait de Sam Altman, dirigeant d'OpenAI, avant de contribuer à son retour quelques jours plus tard, Ilya Sutskever, cofondateur de la startup à l'origine du robot conversationnel ChatGPT, a quitté l'entreprise au lendemain du lancement de GPT-4o, la dernière évolution de l'IA qui la rend toujours plus humanisée.
Son rôle de superviseur de la sécurité de l'IA dans l'équipe de superalignement d'OpenAI, qui vise à encadrer le développement de l'intelligence artificielle pour éviter qu'elle ne devienne nocive, a été remis en question après la dissolution du comité de sûreté, rapidement reconstitué par la suite mais avec Sam Altman à sa tête qui se retrouve ainsi à la fois dirigeant et chef de la sécurité, ce qui n'est pas sans poser de questions.
Comme d'autres salariés ayant quitté l'entreprise, il s'est inquiété de la levée des barrières entourant la création des IA pour privilégier leurs performances et le profit qui peut en être tiré.
La sécurité, parent pauvre des développements de l'IA ?
Encore récemment, une lettre ouverte d'employés, anciens ou toujours présents, d'OpenAI et de Google DeepMind, a souligné l'inquiétude quant à la levée des sécurités qui doivent éviter de créer une IA monstrueuse qui pourrait se révéler hostiles à l'humanité.
Sans réfuter la direction des travaux et les progrès rapides en matière d'intelligence artificielle, ils appellent à poser un cadre et à laisser s'exprimer les critiques au sein des entreprises de l'IA, sans chercher à faire taire les lanceurs d'alerte.
Il s'agit sans doute d'un voeu pieux dans l'atmosphère d'euphorie vis à vis du potentiel de l'intelligence artificielle et dans la perspective de la course vers les AGI ou intelligences artificielles générales qui dépasseront l'intelligence humaine à tous les niveaux.
Safe Superintelligence, l'IA qui ne veut pas négliger la sécurité
Parti d'OpenAI, Ilya Sutskever n'a pas mis longtemps à rebondir en créant sa propre startup Safe Superintelligence Inc. qui va chercher à créer une intelligence artificielle sans négliger les systèmes de sécurité et le contrôle de l'IA.
Dans un message présentant son initiative, il souligne que la création d'une IA sécurisée est l'un des grands défis du moment et que cet aspect ne doit pas être négligé.
Se mettant implicitement en opposition avec la gouvernance d'OpenAI, il indique que le développement se fera "sans les distractions de la supervision et des cycles produit" tandis que les progrès seront "protégés des pressions commerciales à court terme".
Tout le contraire d'OpenAI et de la gestion de Sam Altman ? La nouvelle entreprise Safe Superintelligence aura des locaux en Californie et en Israël où elle compte piocher des talents. Elle accueillera d'anciens chercheurs d'OpenAI mais aussi l'ex-responsable IA d'Apple, David Gross, en tant que co-fondateur.
Toute la difficulté sera maintenant d'exister et de croître dans un environnement en évolution très rapide et demandant de gros moyens financiers et techniques