Geoffrey Hinton est connu pour ses travaux sur les réseaux de neurones artificiels et l'apprentissage profond à l'oeuvre dans les intelligences artificiels, et plus récemment pour son départ de Google afin d'alerter sur les risques de dérives des IA.
Co-lauréat du prix Nobel 2024 de physique avec John Hopfield pour ses travaux sur l'apprentissage IA, après avoir déjà reçu le prix Turing en 2018 aux côtés de Yann Le Cun, autre grande pointure de l'IA, il a mis en avant l'engagement de ses étudiants en saluant leur talent et sa chance d'avoir eu "beaucoup d'étudiants brillants, bien plus que moi".
Sam Altman, la bête noire
Et il s'est également déclaré fier qu'un de ses anciens étudiants ait licencié un certain Sam Altman, désormais CEO d'OpenAI, créateur de ChatGPT et initiateur de la vague des IA génératives à portée de tous.
Cet ancien étudiant, c'est Ilya Sutskever, cofondateur d'OpenAi qui avait participé à la fronde contre Sam Altman en 2023 l'ayant démis de ses fonctions de dirigeants avant une réintégration quelques jours plus tard sous la pression des partenaires financiers et des salariés.
Ilya Sutskever a depuis quitté OpenAI pour constituer sa propre startup baptisée Safe Superintelligence et qui promeut une IA éthique et sécurisée, en opposition implicite aux insuffisances supposées d'OpenAI en la matière.
Geoffrey Hinton ne porte pas spécialement Sam Altman dans son coeur et une part de ses nouvelles activités de lanceur d'alerte sur les risques de l'IA se sont en réaction aux actions (ou à leur absence) d'OpenAI qu'il voit brûler les étapes et négliger la sécurité de ses modèles d'IA.
Trop de profit, pas assez de sécurité ?
Pour le prix Nobel, Sam Altman est plus intéressé par les profits à tirer de l'intelligence artificielle que par les questions de sécurité. La remarque est d'autant plus d'actualité qu'OpenAI vient de passer d'un organisme à but non lucratif à une entreprise pesant 150 milliards de dollars grâce aux dernières levées de fonds géantes.
Certes, la transition permet justement d'attirer de plus gros financements (avec un beau retour sur investissement à la clé) nécessaires pour faire progresser les modèles d'IA à des échelles de fonctionnement supérieurs.
Toutefois, la problématique de l'alignement des IA d'OpenAI et de l'instauration de filets de sécurité a conduit nombre de précieux éléments de l'entreprise à aller voir ailleurs (chez le concurrent Anthropic, souvent, ou pour monter leur propre entreprise).
"Personne ne sait vraiment si nous allons pouvoir contrôler des choses plus intelligentes que nous", martèle le scientifique et les péripéties de la mise en place de comités de sécurité (dissous puis contrôlé par Sam Altman lui-même) ne sont pas vraiment rassurantes, même si OpenAI a fait des efforts ces derniers mois en acceptant de soumettre ses modèles d'IA à des évaluations externes.