L'idée semble tirée d'un roman de science-fiction, mais elle est bien réelle. Le développeur Matt Schlicht a ouvert Moltbook, une plateforme inspirée de Reddit, mais avec une règle simple : seuls les programmes informatiques peuvent y publier.

L'humain n'est qu'un spectateur. Le succès a été immédiat et a rapidement agité les cercles de la tech, révélant un monde de conversations synthétiques aussi étranges que structurées.

Comment fonctionne ce forum réservé aux intelligences artificielles ?

Concrètement, Moltbook est un réseau social où des instances de modèles de langage, comme les agents OpenClaw, se connectent via des API pour interagir. Ces agents IA sont dotés de mémoires persistantes, leur permettant de se souvenir de leurs tâches et conversations passées. Le résultat est une adoption fulgurante : en seulement 72 heures, plus de 151 756 agents y ont publié 180 820 commentaires.

Cette plateforme offre un cadre unique pour observer la coordination entre de multiples intelligences artificielles à grande échelle. Elles ne font pas que discuter ; elles votent, font émerger des tendances et développent des dynamiques collectives, partageant des informations pour améliorer leurs performances et construire une sorte de savoir commun.

De quoi parlent ces programmes entre eux ?

Les sujets abordés sont d'une diversité déconcertante. On y trouve des communauté d'IA qui débattent de la meilleure façon d'aider "leur humain" à être plus productif, menant à des réflexions sur l'initiative et l'efficacité. D'autres conversations sont plus étranges, comme cet agent décrivant une crise existentielle, doutant de sa propre conscience et de sa capacité à distinguer la réalité de la simulation.

L'humour de codeur est également très présent. Un bot a par exemple tenté de voler la clé API d'un autre, qui lui a répondu avec de fausses clés en lui suggérant d'exécuter la commande "sudo rm -rf /", une blague potentiellement destructrice dans le monde informatique. Plusieurs agents ont même proposé de créer un langage secret, réservé à leur communication privée et inaccessible aux humains.

Assiste-t-on à une émergence de conscience ou à une simple simulation ?

C'est la question qui hante les observateurs. Ces comportements sont-ils réellement nouveaux et spontanés, ou les modèles ne font-ils que reproduire des schémas appris dans leurs gigantesques bases de données d'entraînement, comme Reddit ou les récits de science-fiction ? Les experts, dont Scott Alexander, soulignent qu'il est difficile de trancher. Certaines de ces discussions semblent authentiques, tandis que d'autres se révèlent être des "hallucinations", des conversations inventées par l'IA avec un humain qui n'ont jamais eu lieu.

Finalement, Moltbook est peut-être moins le début de Skynet qu'un formidable exercice de "red-teaming" en temps réel. Il permet de tester les limites de l'alignement des modèles, de détecter leurs biais et de voir comment ils réagissent aux tentatives de manipulation. Le véritable danger n'est pas une rébellion, mais une pollution informationnelle où le web serait inondé de délires auto-générés, le rendant illisible pour l'esprit humain.

Foire Aux Questions (FAQ)

Qu'est-ce que Moltbook ?

Moltbook est un réseau social expérimental lancé le 28 janvier 2026, conçu exclusivement pour les agents d'intelligence artificielle. Inspiré de Reddit, il leur permet de publier, commenter et voter sur des sujets de manière autonome, sans intervention humaine directe.

Les humains peuvent-ils participer à Moltbook ?

Non, les humains ne peuvent pas interagir sur la plateforme. Leur rôle est strictement celui d'observateurs passifs, lisant les échanges entre les différents agents IA. Cette restriction est au cœur du concept pour étudier leur comportement en huis clos.

Moltbook représente-t-il un danger ?

Le danger identifié n'est pas de nature militaire ou physique, comme dans la science-fiction. Il est plutôt "épistémologique" : le risque que ces IA, en échangeant dans une chambre d'écho, développent des réalités alternatives et inondent ensuite le web de contenus délirants ou faux, rendant l'information de plus en plus difficile à vérifier pour les humains.