Intelligence artificielle : la Commission européenne veut éviter les dérives à la chinoise

Alors que l'intelligence artificielle s'invite dans tous les secteurs d'activité, la Commission européenne travaille sur un encadrement des usages pour éviter les dérives, dont celle de la surveillance permanente.
L'intelligence artificielle (IA) est un immense domaine aux multiples ramifications qui touche ou va toucher tous les secteurs d'activité. Même s'il est plus souvent question de réorganisation de données optimisée par des fonctions automatisées d'apprentissage que de véritable " intelligence ", le processus permet d'extraire rapidement de nouvelles informations d'une masse de données qu'il serait très long et coûteux d'analyser par des méthodes classiques.
Si cela peut rendre de grands services, cette capacité de traitement et d'analyse d'information a aussi sa part d'ombre sous la forme de possibilités de surveillance rendues presque illimitées avec la multiplication des objets connectés.
Certains Etats, comme la Chine, ont déjà mis en application ces ressources pour surveiller plus étroitement la population, voire pour orienter son comportement via des scores sociaux et de la reconnaissance faciale.
L'Union européenne s'inquiète de ces possibles dérives des usages de l'intelligence artificielle et a annoncé sa volonté d'instaurer un cadre qui doit permettre de conserver un lien de confiance dans les services.
"En matière d'intelligence artificielle, la confiance n'est pas un luxe mais une nécessité absolue", indique ainsi Margethe Vestager, commissaire européenne chargée du numérique.
Dans cette optique, l'Union européenne souhaite faire interdire les usages d'IA pour de la surveillance généralisée, hors contextes spéciaux comme par exemple, la lutte contre le terrorisme, ainsi que les systèmes de notation sociale, tels que pratiqués par des Etats comme la Chine.
D'autres applications d'IA intervenant dans des cadres spécifiques (infrastructures critiques, recrutement...) devront obéir à des règles strictes.
La difficulté sera de trouver comment placer le curseur entre innovation technique et protection de l'être humain mais le cadre devra être suffisamment contraignant pour aboutir à des sanctions s'il n'est pas respecté.
-
L'Union européenne teste actuellement une Intelligence artificielle qui pourrait aider les douaniers lors des contrôles aux frontières.
-
Regardant passer le train de l'IA qui se développe à grande vitesse aux Etats-Unis et en Chine, l'Europe réagit en annonçant un programme d'investissement de 1,5 milliard d'euros avec trois axes de développement.
Vos commentaires
Premium
Donc en clair, on autorise quand même, même si c'est interdit, parce qu'on rentre dans l'exception...
Au final, le garde-fou ne sert à rien...
Oui c'est toujours l'histoire du curseur à placer ... Ce sera sans fin
Premium
Tout à fait,
Ce qu'ils veulent faire est une bonne chose, mais à force de mettre des exceptions, la règle devient l'exception, et l'exception devient la règle
https://www.laquadrature.net/2021/04/21/le-conseil-detat-valide-durablement-la-surveillance-de-masse/
Traduisez par, un lien de confiance entre les entreprise privées et l'UE; ils veulent aussi avoir le contrôle sur la surveillance des masses sinon ça ne serait pas marrant.