Plus de 850 personnalités, dont les pionniers de l'IA Yoshua Bengio et Geoffrey Hinton, ainsi que Steve Wozniak et Richard Branson, exigent l'arrêt du développement de la superintelligence.

L'appel, lancé par le Future of Life Institute, met en garde contre des risques existentiels pour l'humanité face à une technologie qui pourrait devenir incontrôlable.

La course à l'intelligence artificielle la plus avancée vient de rencontrer un obstacle de taille. Dans une déclaration publiée ce mercredi, plus de 850 experts et figures influentes ont appelé à un moratoire sur le développement de la superintelligence, cette forme d'IA qui surpasserait les capacités cognitives humaines dans pratiquement tous les domaines.

L'initiative, portée par l'organisme à but non lucratif Future of Life Institute, demande une pause tant qu'un consensus scientifique sur la sécurité et le contrôle de cette technologie n'est pas atteint, et sans un soutien clair de la population.

Une coalition aux profils étonnamment variés

La force de cet appel réside dans la diversité de ses signataires. En tête de liste, on retrouve des noms qui ont façonné l'IA moderne, souvent qualifiés de "parrains de l'IA", comme Yoshua Bengio et Geoffrey Hinton, ce dernier ayant reçu le prix Nobel de physique en 2024.

Ils sont rejoints par des chercheurs de renom tel que Stuart Russell de l'université de Berkeley. Mais la mobilisation dépasse largement le cercle académique. Des figures emblématiques de la tech, comme le cofondateur d'Apple Steve Wozniak et le fondateur de Virgin Richard Branson, ont également apposé leur nom au bas du texte.

Le spectre politique est tout aussi large, avec la présence de Susan Rice, ancienne conseillère à la sécurité nationale sous Barack Obama, et de Steve Bannon, ancien conseiller stratégique de Donald Trump.

La liste s'étend même à des personnalités médiatiques et des célébrités, incluant le prince Harry et Meghan Markle, soulignant une inquiétude qui traverse les clivages traditionnels.

La superintelligence, un objectif aux risques existentiels

Mais qu'est-ce que cette superintelligence qui suscite tant de craintes ? Il s'agit du stade ultime de l'IA, un objectif affiché par plusieurs géants du numérique, qui verrait une machine non seulement égaler, mais dépasser l'intelligence humaine sur tous les plans. Pour les signataires, les risques immenses vont bien au-delà de simples perturbations économiques.

La déclaration évoque des menaces profondes : obsolescence économique de l'humanité, perte de libertés et de contrôle, risques pour la sécurité nationale et même, dans le scénario le plus sombre, l'extinction potentielle de l'espèce humaine.

Max Tegmark, président du Future of Life Institute, résume la position : "Peu importe que ce soit dans deux ou quinze ans, construire une telle chose est inacceptable" sans un cadre réglementaire solide.

Il distingue bien la création d'outils d'IA puissants pour des tâches spécifiques, comme guérir des maladies, de la quête d'une intelligence supérieure et autonome.

Une course effrénée menée par les géants de la tech

Cet appel à la prudence intervient alors que la compétition pour atteindre ce graal technologique s'intensifie. Sam Altman, le patron d'OpenAI, l'entreprise derrière ChatGPT, a lui-même estimé que ce cap pourrait être franchi d'ici cinq ans.

De son côté, Mark Zuckerberg, le dirigeant de Meta, n'a pas caché ses ambitions, se disant prêt à investir massivement, quitte à "gaspiller quelques centaines de milliards de dollars" pour ne pas être "hors-jeu".

Ironiquement, plusieurs de ces dirigeants, dont Sam Altman et Elon Musk, ont par le passé eux-mêmes alerté sur les dangers d'une IA trop avancée. Altman qualifiait en 2015 le développement d'une intelligence surhumaine de "plus grande menace pour l'existence continue de l'humanité".

Face à cette accélération, la déclaration s'appuie sur un récent sondage indiquant que seule une minorité du public américain soutient un développement rapide et non régulé, la majorité souhaitant des garanties de sécurité avant tout.

La question reste donc ouverte : cet appel retentissant parviendra-t-il à freiner les ardeurs des laboratoires d'IA ou ne sera-t-il qu'une mise en garde de plus dans une course technologique déjà lancée à pleine vitesse ?

L'instauration de "lignes rouges" internationales, réclamée par d'autres chercheurs il y a un mois, apparaît plus que jamais comme un enjeu crucial pour l'avenir.