Cela fait plusieurs années que les laboratoires militaires préparent dans un secret plus ou moins bien gardé des robots qui appuieront les forces au sol ou dans les airs. Si les drones sont déjà capables de réaliser des frappes, d'autres initiatives visent directement à remplacer les troupes au sol.

Récemment se posait alors la question de savoir s'il fallait permettre à une IA de décider de la vie ou de la mort d'un humain, contexte de guerre ou pas... Et désormais, l'inquiétude grandie de voir ces nouveaux jouets mis à disposition des armées détournés pour tomber aux mains des terroristes.

Terminator

L'ONU a ainsi débattu de la question lors d'une réunion récente. La bonne nouvelle est que l'ensemble des chefs d'État réunis s’est accordé à dire qu'il ne fallait pas que ce type de technologie tombe entre de mauvaises mains, et qu'il ne fallait pas non plus que ces robots puissent être en mesure de "mener des attaques sans présence humaine".

Problème : ces robots ne pourront véritablement évoluer qu'à travers l'implantation d'une IA développée. Une Intellgence Artificielle qui pourra par la suite choisir d'elle-même de différencier un allié d'un ennemi, et donc éventuellement de faire le choix de tuer un humain pour en sauver un autre.

Pour l'instant, l'ONU s'accorde à dire qu'il faudra limiter la disponibilité de ces armes, baptisées LOIS (Lethal Weapons Autonomes Systems) et d'en limiter la prolifération.