La mise à disposition de ChatGPT fin 2022 a largement mis en lumière les qualités et les défauts des intelligences artificielles génératives. Si elles permettent de créer en quelques requêtes des contenus ou des procédures automatisées, jusqu'à pouvoir remplacer l'humain, elles peuvent aussi très facilement accroître la visibilité des fake news et le diffusion de fausses informations.
Cette perturbation de la frontière entre la vérité et un contenu fabriqué est un vrai problème alors que les IA approchent d'un point où il devient toujours plus difficile de distinguer leurs "créations" (même si elles proviennent en fait de grandes bases d'informations) de celles des humains.
Cette situation inquiète les autorités qui réfléchissent à des mesures qui permettraient d'encadrer l'essor de l'IA en limitant les aspects négatifs sans freiner les progrès à en attendre.
Mettre de l'éthique dans l'IA
A ce jeu, l'Europe se pose en figure de proue en validant un texte posant un cadre juridique sur l'usage des intelligences artificielles. Né dans la douleur après deux ans de maturation, repensé pour prendre en compte la montée des IA génératives, il a finalement été validé ce jeudi 11 mai 2023, première étape avant sa mise en application.
Face aux nouvelles possibilités des ChatGPT, Midjourney et autres, des experts du secteur ont demandé en début d'année une pause dans les développements afin de poser un cadre avant de risquer de mettre en danger la société, sinon l'humanité, avec des produits IA aux conséquences et implications mal comprises.
Le projet de régulation européen comprend donc un ensemble de règles qui doivent permettre un développement "éthique" de l'IA, avec un "contrôle humain" et des garanties sur la transparence et la traçabilité ainsi que sur l'impact environnemental, de manière à limiter leurs usages détournés pour la production de fake news, la propagation de discours problématiques ou la violation de propriété intellectuelle.
Distinguer production IA et humaine
Le texte prévoit également que les productions par IA soient clairement distinguées des productions humaines tandis que certains aspects, comme l'identification biométrique en temps réel dans les espaces publics ou la reconnaissance des émotions soient interdits au sein de l'Union européenne.
Les systèmes IA les plus sensibles devront faire l'objet d'une procédure d'évaluation de conformité et en fonction de leur niveau de risque, avec des obligations associées, et être enregistrés dans une bases de données européenne.
Les sanctions en cas de non respect du cadre européen pourront comprendre des sanctions jusqu'à 7% du chiffre d'affaires mondial ou jusqu'à hauteur de 40 millions d'euros.