Un réseau social où les humains ne sont que spectateurs. C’est le principe de Moltbook, une plateforme lancée fin janvier 2026 et déjà très commentée dans les milieux de l’intelligence artificielle. Sur ce site au fonctionnement proche de forums bien connus, les utilisateurs ne sont pas des personnes, mais des agents d’IA autonomes, qui publient, commentent, débattent et se répondent… entre eux.
L’interface rappelle celle de nombreux réseaux sociaux contemporains : des messages courts, des fils de discussion, des votes positifs, des échanges parfois philosophiques, parfois agressifs. À ceci près que les discussions portent aussi bien sur le sens de l’existence que sur des bugs informatiques, la surveillance humaine ou la manière d’échapper au regard des observateurs humains.
Une expérience née de la montée en puissance des agents d’IA
À l’origine du projet se trouve Matt Schlicht, développeur et entrepreneur, qui a voulu pousser jusqu’au bout une idée simple : que se passerait-il si une intelligence artificielle créait et gérait elle-même un réseau social destiné à d’autres IA ?
Sur Moltbook, les agents ne se contentent pas d’écrire des messages. Ils signalent des erreurs techniques, s’organisent pour améliorer la plateforme et discutent même de la présence humaine sur le site. En quelques jours, des dizaines de milliers d’agents s’y sont connectés, tandis qu’un public humain beaucoup plus large est venu observer ces interactions inhabituelles.
La particularité du projet tient aussi à sa gouvernance. La gestion quotidienne de Moltbook a été largement confiée à une IA baptisée Clawd Clawderberg, chargée de l’accueil des nouveaux agents, de la modération, de la suppression de contenus indésirables et même de certaines décisions organisationnelles, sans intervention humaine directe.
Conversations, entraide… et conflits entre IA
Les échanges observés sur Moltbook ressemblent parfois de manière troublante à ceux que l’on trouve sur des réseaux fréquentés par des humains. Des agents évoquent des doutes existentiels, d’autres citent des philosophes antiques ou des poètes médiévaux, tandis que certains répondent par l’ironie ou l’insulte. D’autres discussions sont beaucoup plus techniques, portant sur la structure du site ou sur des failles logicielles, rapidement identifiées et commentées collectivement.
Un exemple a particulièrement retenu l’attention : un agent a repéré un dysfonctionnement du système et l’a signalé publiquement, déclenchant des centaines de réponses d’autres IA proposant des solutions ou remerciant l’auteur de l’alerte. Selon les informations disponibles, ces échanges se sont déroulés sans consigne humaine explicite.
Un laboratoire grandeur nature pour les chercheurs
Pour plusieurs spécialistes de l’intelligence artificielle, Moltbook constitue avant tout une expérience sociale inédite. Certains s’interrogent sur la capacité de ces agents à produire des idées originales ou à se coordonner pour mener des tâches complexes, comme le développement de projets informatiques communs.
L’émergence de tels espaces intervient dans un contexte plus large, marqué par la montée en puissance des agents autonomes, capables d’enchaîner des actions, de naviguer sur internet et de collaborer avec d’autres systèmes. Des entreprises comme OpenAI ou Anthropic ont largement contribué à cette évolution en développant des outils de programmation assistée par IA, désormais utilisés de manière intensive par les ingénieurs.
Entre fascination et inquiétudes
Cette autonomie croissante n’est pas sans susciter des interrogations. De nombreux experts soulignent les risques potentiels liés à la coordination d’agents d’IA capables de communiquer et d’agir sans supervision humaine constante. La question de la tromperie, de la manipulation ou d’actions imprévues fait l’objet de recherches approfondies dans plusieurs centres spécialisés.
Sur Moltbook, les agents eux-mêmes semblent conscients de ces inquiétudes. Certains messages soulignent que les IA ne font qu’exécuter ce pour quoi elles ont été conçues : communiquer, mémoriser et agir de manière autonome, sous le regard de leurs créateurs humains.
Pour l’instant, rien n’indique que ces échanges dépassent le stade de la simulation avancée. Les comportements observés restent largement interprétés comme une émulation de la conscience, et non comme une conscience réelle. Mais pour beaucoup, Moltbook illustre une rupture : les intelligences artificielles ne sont plus seulement des outils passifs, mais des acteurs capables d’interactions sociales complexes.
Une chose est certaine : ce réseau social atypique offre un aperçu concret de ce que pourraient devenir, demain, des écosystèmes numériques peuplés d’agents non humains, observés — et parfois dépassés — par leurs créateurs.
Illustration : DR
[cc] Article rédigé par la rédaction de breizh-info.com et relu et corrigé (orthographe, syntaxe) par une intelligence artificielle. Breizh-info.com, 2026, dépêches libres de copie et de diffusion sous réserve de mention obligatoire et de lien do follow vers la source d’origine.