Le sujet de la recherche sur les armes douées d'autonomie grâce à l'intelligence artificielle reste toujours aussi sensible, avec la crainte de faire émerger des robots tueurs incontrôlables.

intelligence-artificielle-IA Cette inquiétude latente a conduit à la création de groupes de réflexion et à l'expression par certains scientifiques de la nécessité d'une régulation ou d'un accord mondial, tandis que des personnalités, comme le milliardaire Elon Musk, avertissent régulièrement sur les conséquences néfastes potentielles du développement incontrôlé des intelligences artificielles.

Aussi, l'annonce de l'ouverture d'un laboratoire de travail sur les armes autonomes au sein de la prestigieuse université sud-coréenne KAIST (Institut supérieur coréen des sciences et technologies) n'est pas passée inaperçue dans le monde de la robotique.

Une cinquantaine d'experts en robotique ont aussitôt annoncer qu'ils boycottaient les collaborations avec l'institut, craignant que la nouvelle branche de recherche ne mène tout droit à ces fameux robots tueurs, tout droit sortis des imaginaires représentés par les films Terminator.

Le boycott intervient aussi à une semaine d'une conférence de l'ONU sur la problématique des armes létales autonomes et de la nécessité d'en limiter la diffusion avant de se retrouver pris dans une course à l'armement.

Les experts accusent ainsi le KAIST de mettre en place par cette initiative les germes de cette course aux intelligences artificielles belliqueuses et robots tueurs, ce que dément son président Shin Sung-chul, rappelant les valeurs d'éthique de son université.

Le laboratoire doit en principe suivre quatre axes principaux, principalement autour du rôle des IA dans la chaîne de commandement et la prise de décision, les systèmes de navigation de véhicules autonomes sous-marins ou encore les les technologies de tracking assistées par une IA.

Source : Financial Times