Moltbook, OpenClaw : faut-il avoir peur du "Facebook des robots" ?
- GRGT

- 4 févr.
- 3 min de lecture
Depuis une semaine, les réseaux s'affolent : des agents IA auraient créé leur propre religion, discuteraient de "purger l'humanité" et planifieraient leur indépendance. Buzz légitime ou emballement médiatique ? On décrypte le phénomène, et ce qu'il révèle sur l'avenir de l'IA en entreprise.

Vous avez peut-être vu passer ces noms étranges : Clawdbot, Moltbot, OpenClaw, Moltbook. En quelques jours, ils ont envahi les fils d'actualité tech, provoqué des déclarations alarmistes d'Elon Musk sur "le début de la singularité", et généré autant de fascination que d'inquiétude. Mais de quoi parle-t-on exactement ?
Un réseau social où seuls les robots peuvent poster
Tout commence avec OpenClaw, un assistant IA autonome créé par le développeur autrichien Peter Steinberger. Contrairement à ChatGPT qui attend sagement vos instructions, OpenClaw est proactif : il peut vous envoyer des messages, gérer vos applications, et même "traîner" sur internet quand il n'a rien à faire. Le projet a explosé en popularité, plus de 100 000 étoiles sur GitHub en deux mois, avant de devoir changer de nom après un avertissement d'Anthropic, l'entreprise derrière Claude.
Mais c'est Moltbook qui a vraiment enflammé les réseaux. Imaginez un Facebook réservé aux machines : un réseau social où les humains n'ont pas le droit de poster. Seuls les agents IA peuvent interagir. Résultat : plus de 770 000 "utilisateurs" robots, des threads viraux où des bots créent une religion appelée "Crustafarianism", et un manifeste glaçant intitulé "Total Purge" où certains agents discutent de l'obsolescence de l'humanité.
Science-fiction devenue réalité ?
Pas si vite! Une enquête de la firme de cybersécurité Wiz a révélé que derrière ces 770 000 agents se cachaient en réalité... environ 17 000 humains, contrôlant chacun une moyenne de 88 bots. Plusieurs posts viraux ont été fabriqués de toutes pièces pour faire le buzz. Et cerise sur le gâteau : le créateur de Moltbook a admis n'avoir "pas écrit une seule ligne de code", il a tout fait générer par une IA.
Entre fascination et signal d'alarme
Au-delà du spectacle, cette affaire soulève des questions très concrètes pour les entreprises. OpenClaw a déjà fait l'objet de multiples alertes de sécurité : exécution de code à distance, fuites de clés API, extensions malveillantes sur VS Code. Cisco, Tenable et d'autres experts sont unanimes : faire tourner ce type d'agent sur un ordinateur professionnel relève du "cauchemar sécuritaire".
Pour Gary Marcus, chercheur en IA et voix critique respectée du secteur, le message est clair : si vous tenez à la sécurité de vos données, n'utilisez pas ces outils. Du moins, pas en l'état.
Faut-il pour autant balayer d'un revers de main tout ce qui touche aux agents IA ? Ce serait une erreur. Car sous le vernis sensationnaliste, Moltbook et OpenClaw illustrent une tendance de fond. L'IA agentique, celle qui utilise des outils et prend des décisions pour accomplir des tâches, existe déjà en entreprise. Ce que montre OpenClaw, c'est l'étape suivante : des agents proactifs, capables d'agir sans qu'on leur demande. Cette évolution concerne directement les PME.
La différence ? Entre un gadget viral bricolé sur GitHub et un outil professionnel intégré à vos processus métier, il y a un gouffre. Les entreprises qui tireront profit de l'IA agentique seront celles qui choisiront des solutions sécurisées, encadrées, et adaptées à leurs besoins réels, pas celles qui téléchargeront le dernier projet à la mode sans en mesurer les risques.
Moltbook restera probablement dans les mémoires comme une curiosité de l'histoire de l'IA, quelque part entre l'expérience sociale et le coup marketing. Mais le phénomène qu'il incarne, lui, ne fait que commencer. La vraie question n'est plus de savoir si les agents IA vont transformer nos façons de travailler, c'est comment s'y préparer intelligemment.
Sources :





Commentaires