Des chercheurs, en collaboration avec plusieurs institutions, viennent de révéler l'existence de ce qu'ils nomment un "zero-day biologique" : une vulnérabilité critique dans le système mondial de surveillance des commandes d'ADN. La cause ?
L'intelligence artificielle, qui a appris à "paraphraser" le langage de la nature pour créer des protéines potentiellement mortelles, mais totalement inconnues de nos défenses.

Comment fonctionne le système de biosécurité actuel ?

Depuis des décennies, commander une séquence d'ADN sur mesure est devenu une pratique courante en recherche. Pour parer à un usage malveillant, comme la création d'un virus ou d'une toxine, l'industrie a mis en place, en collaboration avec les gouvernements, un filet de sécurité. Le principe est simple : toute commande d'ADN synthétique passe par un filtre, un gardien numérique qui vérifie que la séquence ne correspond pas à une menace connue.

Technion DNAFormer stockage ADN 02

Ce système de biosécurité a évolué, passant d'une simple comparaison de séquences d'ADN à une analyse plus fine capable de reconnaître différentes "orthographes" génétiques pour une même protéine dangereuse. Jusqu'à présent, ce bouclier semblait suffisant.

Comment l'intelligence artificielle a-t-elle contourné ce bouclier ?

L'avènement de l'intelligence artificielle spécialisée dans la conception de protéines a changé les règles du jeu. Ces outils peuvent désormais concevoir des protéines avec des séquences d'acides aminés très différentes, mais qui, une fois repliées en 3D, adoptent la même structure et donc la même fonction qu'une protéine existante.

adn

Les chercheurs de Microsoft ont alors testé une hypothèse terrifiante : l'IA pourrait-elle créer une toxine "déguisée", fonctionnellement identique à un poison connu comme la ricine, mais génétiquement assez différente pour tromper les logiciels de surveillance ?

L'expérience a été menée à grande échelle : à partir de 72 toxines connues, trois IA open source ont généré 75 000 protéines variantes. Leurs séquences d'ADN ont ensuite été soumises à quatre des principaux logiciels de criblage utilisés dans le monde.

Les résultats sont-ils si alarmants ?

Les résultats ont confirmé la vulnérabilité. Si certains logiciels s'en sont mieux sortis que d'autres, tous ont laissé passer des séquences potentiellement dangereuses. Face à ce constat, les chercheurs ont traité la découverte comme un véritable "zero-day" de cybersécurité. Ils ont confidentiellement alerté les autorités américaines et les industriels, dont l'International Gene Synthesis Consortium, avant de publier leurs travaux dans la revue Science.

ADN

Des correctifs ont été développés en urgence et ont permis d'améliorer significativement la détection. Cependant, même après mise à jour, entre 1 et 3 % des variants jugés "très similaires" aux toxines originales passent encore entre les mailles du filet. Si les chercheurs précisent que la plupart de ces protéines créées par IA seraient non fonctionnelles, le risque, même minime, demeure. Cette étude prouve que la surveillance basée sur la similarité atteint ses limites et qu'une nouvelle ère de menaces biologiques, entièrement conçues par l'IA, est désormais une possibilité concrète.

Foire Aux Questions (FAQ)

De vraies toxines ont-elles été créées durant cette étude ?

Non, absolument aucune. L'ensemble de l'étude a été mené de manière purement numérique. Les chercheurs ont utilisé des IA pour générer des séquences d'ADN théoriques et ont ensuite testé ces séquences contre les logiciels de criblage. La "dangerosité" des protéines a été évaluée par des logiciels de prédiction de structure 3D, mais à aucun moment les protéines ou leur ADN n'ont été synthétisés physiquement.

Le danger est-il immédiat pour le grand public ?

Pas à ce stade. Selon les chercheurs, créer une toxine fonctionnelle de cette manière reste très peu pratique. Il faudrait commander et tester des dizaines, voire des centaines de variantes pour espérer en trouver une qui fonctionne et qui passe les filtres, ce qui alerterait les fournisseurs. Cependant, cette étude est une preuve de concept qui alerte sur un risque futur, à mesure que les outils d'IA deviendront plus performants et accessibles.

Comment peut-on se protéger contre ce type de menace à l'avenir ?

C'est tout l'enjeu du débat ouvert par cette publication. Les correctifs logiciels sont une première étape, mais l'étude montre les limites d'une approche basée uniquement sur la détection de menaces connues. La prochaine génération de menaces pourrait être des protéines toxiques entièrement nouvelles, sans aucun équivalent dans la nature. La solution passera probablement par une régulation plus stricte de l'accès aux outils d'IA de conception de protéines et par de nouvelles méthodes de surveillance qui ne se basent plus seulement sur la similarité.