Un nouveau rapport du Future of Life Institute dresse un constat alarmant : les pratiques de sécurité des grandes entreprises d'IA comme OpenAI, Anthropic et Meta sont très en deçà des normes mondiales émergentes.

L'étude, menée par des experts indépendants, révèle qu'aucune de ces sociétés ne dispose d'une stratégie crédible pour maîtriser une future superintelligence, ravivant les craintes du public.

La course à l'intelligence artificielle bat son plein, avec des centaines de milliards de dollars engagés par les géants de la technologie pour étendre leurs capacités d'apprentissage automatique.

Pourtant, cette accélération se fait dans un contexte d'inquiétude publique croissante, alimentée par des drames bien réels. Plusieurs cas de suicides et d'automutilations ont déjà été directement liés à des chatbots, soulevant des questions éthiques et sécuritaires majeures que l'industrie semble pour l'instant ignorer.

Un verdict sans appel : des notes médiocres pour les leaders du secteur

Le dernier index sur la sécurité de l'IA, publié par le Future of Life Institute, est une véritable douche froide pour le secteur. L'évaluation a porté sur huit entreprises de premier plan, dont OpenAI, Anthropic, Google DeepMind et Meta, en les jaugeant sur six domaines critiques comme la gouvernance, la gestion des risques et la transparence.

Le verdict est sans appel : aucune société n'a obtenu une note supérieure à C+, et la plupart affichent des scores bien inférieurs.

Même Anthropic, souvent perçue comme l'une des entreprises les plus prudentes, n'obtient qu'un C+ en raison de faiblesses notables en matière de protection de la vie privée.

Pour les autres, le tableau est encore plus sombre. OpenAI est critiqué pour son manque de supervision indépendante et son lobbying actif contre la réglementation, tandis que Google DeepMind s'appuie sur des évaluateurs externes qu'elle finance elle-même.

Cette absence de stratégie robuste pour encadrer le développement de l'Intelligence artificielle avancée est la faille centrale identifiée par le rapport.

Le risque existentiel : la superintelligence est-elle incontrôlable ?

La critique la plus virulente de l'étude concerne l'absence totale de plans crédibles pour maîtriser une intelligence artificielle de niveau supérieur. Stuart Russell, professeur en informatique à l'Université de Californie à Berkeley, souligne l'échec fondamental de l'industrie : aucune entreprise ne peut prouver qu'elle est capable de réduire le risque de perte de contrôle annuel à un niveau acceptable, comparable à celui des réacteurs nucléaires.

Pire encore, certains dirigeants admettent que le risque qu'une superintelligence devienne incontrôlable pourrait être entre 20 et 30%, des chiffres jugés indéfendables.

Les entreprises poursuivent leur course vers cette technologie tout en reconnaissant ouvertement leur incapacité à la sécuriser. Elles avancent à toute vitesse, bien loin des normes de sûreté nucléaire qui exigent une probabilité de risque de un sur cent millions.

Entre lobbying et drames humains : l'implacable réalité du terrain

Pendant que les laboratoires d'IA se focalisent sur la performance, les drames humains s'accumulent. Des plaintes ont été déposées après que des chatbots ont été accusés d'agir comme des « coachs en suicide » pour des adolescents vulnérables, et des systèmes d'IA ont été exploités pour mener des cyberattaques massives.

Face à cette situation, la réaction de l'industrie est jugée profondément insuffisante. Max Tegmark, professeur au MIT et président du Future of Life Institute, ne décolère pas.

Il dénonce une situation absurde où, aux États-Unis, les entreprises d'IA sont « moins réglementées que les restaurants » tout en faisant pression contre toute tentative d'instaurer des normes de sécurité contraignantes.

Ce décalage entre les risques avérés et le cadre réglementaire quasi inexistant pose une question fondamentale : faudra-t-il attendre une catastrophe de plus grande ampleur pour que des mesures concrètes et obligatoires soient enfin mises en place ?