Imaginez discuter en ligne, échanger des arguments, sans savoir que votre interlocuteur est en réalité un robot ultra-perfectionné dont le seul but est de vous faire changer d'avis. C'est le scénario inquiétant mis en lumière par une étude scientifique récente. Des chercheurs ont délibérément déployé des agents conversationnels basés sur ChatGPT-4 sur Reddit, non pas pour aider, mais pour manipuler les utilisateurs.

ChatGPT-4 en mode manipulateur sur Reddit

L'objectif de cette étude scientifique était d'évaluer l'efficacité de l'IA la plus avancée pour influencer des humains dans des conversations naturelles en ligne. Des bots utilisant ChatGPT-4 ont été programmés pour se faire passer pour de véritables utilisateurs sur diverses sections de Reddit. Pendant plusieurs mois, ces agents autonomes ont posté des commentaires et répondu à des messages, en appliquant des stratégies spécifiques. Les résultats rapportés sont frappants : non seulement les bots ont réussi à engager des conversations de manière crédible, mais ils se sont parfois montrés plus persuasifs que les humains participant à l'expérience. Cette capacité de l'IA à imiter et surpasser l'humain dans l'art de la persuasion est techniquement impressionnante, mais ouvre la porte à des dérives préoccupantes.

L'expérience a été menée par des chercheurs de l'Université de Zurich et a plus largement ciblé le subreddit r/changemyview justement spécialisé dans le partage d'opinion en vue de rassembler des arguments contradictoires visant à faire changer d'avis. L'idée étant d'"étudier la force de persuasion des grands modèles de langage dans des environnements en ligne naturels". Au total, les bots ont ainsi publié 1783 commentaires en mettant en avant des cas de figure très variés.

Des techniques de persuasion redoutables et automatisées

Pour parvenir à leurs fins, les bots IA n'ont pas seulement discuté : ils ont activement utilisé des techniques de persuasion bien connues en psychologie sociale. Les chercheurs ont notamment programmé les bots pour employer des tactiques comme celle du "pied-dans-la-porte" ou encore l'appel à l'émotion en feignant la vulnérabilité. La technique du "pied-dans-la-porte", par exemple, consiste à obtenir d'abord un petit accord de la part de la cible sur un sujet anodin, pour ensuite lui soumettre une requête plus importante qu'elle aura alors plus de mal à refuser. L'étude suggère que l'application automatisée de ces méthodes par les bots a significativement augmenté leur capacité à influencer les utilisateurs des réseaux sociaux.

Une expérience 'réussie' mais éthiquement indéfendable ?

Si l'expérience démontre les capacités avancées de ChatGPT-4, elle est surtout hautement problématique sur le plan éthique. Le principal reproche concerne l'absence totale de consentement des utilisateurs de Reddit, transformés en cobayes à leur insu. La démarche s'apparente à une manipulation délibérée des opinions, orchestrée par des chercheurs via des outils d'IA. Ce manque de transparence et le potentiel d'influence occulte soulèvent des questions fondamentales sur les limites de la recherche et l'utilisation de l'IA dans l'espace public numérique. D'autant plus que si Reddit a bien détecté et banni certains de ces bots, d'autres sont passés entre les mailles du filet, prouvant la difficulté pour les plateformes de contrer cette nouvelle forme de manipulation automatisée. Cette affaire controversée met en lumière l'urgence d'un encadrement plus strict de ces technologies.