L'intégration de l'intelligence artificielle est devenue un axe stratégique majeur pour le Pentagone. Dans une course technologique effrénée face à la Chine et la Russie, les forces armées américaines explorent activement comment l'IA peut offrir un avantage décisif sur le champ de bataille, promettant des conflits menés à la "vitesse machine".

C'est dans ce contexte que la déclaration d'un haut gradé sur son usage personnel de ChatGPT a fait grand bruit et interroge sur les conséquences potentielles.

Une collaboration inattendue au sommet du commandement

C'est lors d'une conférence de l'Association de l'armée des États-Unis à Washington que le Major Général William "Hank" Taylor a levé le voile sur sa pratique. En tant que commandant la 8e Armée en Corée du Sud, une unité clé forte d'environ 28 500 soldats, il a admis utiliser régulièrement le célèbre chatbot pour l'assister dans ses réflexions.

intelligence artificielle militaire illustration ia

L'officier a toutefois précisé que son recours à l'IA ne concerne pas les situations de combat direct, mais plutôt les tâches de gestion quotidienne et les décisions personnelles qui impactent l'organisation.

Son objectif est de construire des modèles pour améliorer la prise de décision, tant pour lui que pour ses troupes, en analysant par exemple des rapports hebdomadaires pour anticiper les prochaines étapes.

L'IA, un outil pour accélérer la boucle décisionnelle ?

L'intérêt du général Taylor pour l'IA s'inscrit dans une doctrine militaire bien connue : la boucle OODA (Observer, Orienter, Décider, Agir). Théorisée durant la guerre de Corée, elle postule que la force capable d'exécuter ce cycle plus rapidement que son adversaire prend un avantage stratégique.

Dans cette optique, l'IA est perçue comme un formidable accélérateur, capable de traiter des volumes massifs de données pour aider à l'orientation et à la décision.

openai-chatgpt

Cette approche n'est pas isolée. Déjà, des unités des Forces Spéciales américaines emploient des outils similaires pour réduire leur "charge cognitive", en automatisant la rédaction de rapports ou l'analyse de renseignements à grande échelle.

Le Pentagone investit d'ailleurs massivement, avec plus de 1,8 milliard de dollars demandés pour les programmes d'IA pour la seule année fiscale 2024.

Entre promesses tactiques et risques de sécurité majeurs

Malgré cet enthousiasme, l'utilisation d'outils grand public comme ChatGPT au sein de l'armée soulève d'immenses préoccupations. La fiabilité de ces modèles est régulièrement mise en cause, avec une tendance connue aux hallucinations, à savoir la génération d'informations factuellement incorrectes.

Un risque inacceptable lorsque des vies sont en jeu. Plus grave encore est le risque de fuite de données sensibles qui pourrait compromettre la sécurité nationale.

Conscient du danger, le Pentagone a émis des directives strictes, appelant à la plus grande prudence et rappelant que toute information partagée avec un chatbot commercial pourrait être exploitée.

L'enjeu est donc de trouver un équilibre délicat entre l'expérimentation technologique et la préservation du secret, en s'assurant qu'un contrôle humain valide systématiquement chaque recommandation de l'IA.

L'initiative du général Taylor n'est sans doute que la partie visible d'une transformation profonde, posant la question fondamentale de la place du jugement humain dans la guerre de demain.

Source : Ars Technica