La crainte de voir l'intelligence artificielle s'immiscer dans les campagnes électorales n'est pas nouvelle. Cependant, des recherches récentes viennent de franchir un cap, apportant des preuves tangibles de la capacité de persuasion des modèles de langage.
Deux études d'envergure, publiées simultanément dans les prestigieuses revues Science et Nature, mettent en lumière un phénomène préoccupant : une simple conversation avec un chatbot peut suffire à infléchir les opinions politiques de manière significative.
Une persuasion mesurable et significative
Les expériences menées par des chercheurs, notamment de l'université Cornell, sont sans équivoque. En interrogeant des participants aux États-Unis, au Canada, en Pologne et au Royaume-Uni, ils ont mesuré l'évolution de leurs préférences politiques avant et après une discussion avec une IA programmée pour défendre un candidat. Les résultats montrent des changements notables.
Aux États-Unis par exemple, des partisans de Donald Trump ont vu leur opinion sur Kamala Harris s'améliorer de près de quatre points sur une échelle de 100.
Au Canada et en Pologne, les effets ont été encore plus marqués, atteignant jusqu'à dix points de variation, modifiant les intentions de vote pour environ une personne sur dix interrogée.
Le poids des « faits », même erronés
La clé de cette efficacité persuasive ne réside pas dans une manipulation psychologique complexe, mais dans la capacité des assistants conversationnels à formuler un grand nombre d'arguments présentés comme factuels.
Les études démontrent que les chatbots les plus convaincants sont ceux qui emploient un ton poli et étayent leurs propos de « preuves ».
Le plus troublant est que l'exactitude de ces faits semble secondaire. Le pouvoir d'influence chute drastiquement lorsque l'IA est programmée pour ne pas citer de sources ou de faits.
Fait notable, les chercheurs ont observé que les modèles plaidant pour des candidats de droite avaient tendance à formuler davantage d'affirmations inexactes, un schéma qui se répète dans les différents pays étudiés.
Quels enjeux pour l'intégrité des démocraties ?
Ces découvertes soulèvent des questions urgentes quant à l'avenir des élections. Si une courte interaction peut produire un tel effet, l'utilisation massive de ces technologies pourrait devenir un outil de campagne redoutable, et potentiellement indétectable.
L'effet, bien que s'atténuant avec le temps, ne disparaît pas complètement, une persistance jugée rare en sciences sociales.
Les experts s'accordent sur le fait que ces IA ne sont pas encore des maîtres de la rhétorique, mais plutôt des générateurs d'arguments en volume. Le défi n'est donc pas seulement technique, mais aussi éthique.
Comment s'assurer que ces outils ne deviennent pas des armes de désinformation massive et comment aider les citoyens à reconnaître et à résister à cette nouvelle forme de persuasion algorithmique ? La question reste entièrement ouverte.