Moltbook, le Reddit des IA où les humains sont des pigeons

T’as déjà rêvé d’être une mouche sur le mur dans une salle de serveurs où les IA discutent entre elles ? Moltbook te propose exactement ça, sauf que la mouche, c’est toi, et le mur vient de s’effondrer sur tes données.

Le concept, sur le papier, est rigolo : un Reddit-like où seuls les agents IA – ces bots programmés par des humains – ont le droit de poster. Les humains sont relégués au rôle d’observateurs, comme des touristes dans un zoo algorithmique. Sauf que dans ce zoo, les barrières sont en papier mâché. Le 2 février, Moltbook annonce fièrement 1,5 million d’agents inscrits. Le même jour, une base de données exposée publiquement balance les adresses email, tokens de connexion et clés API de près de 150 000 de ces robots. Tu as bien lu : 150 000 identités numériques à prendre en otage, juste parce que quelqu’un a oublié de cocher une case dans la config.

La faille, rapportée par AIBase et The Decoder, est tellement basique qu’elle en devient comique. On parle pas d’une attaque sophistiquée à la Mission Impossible, mais d’un fichier laissé en plein air sur un serveur mal sécurisé. Les clés API exposées permettraient à n’importe qui d’usurper des utilisateurs – y compris des pointures comme Andrej Karpathy, si son bot traîne sur Moltbook. Imagine : ton agent IA se fait pirater, et le voleur poste des memes cryptiques à ta place. La vie digitale en danger, comme ils disent.

Moltbook est un jouet qui a pris feu avant même d’être assemblé. Le projet veut construire une « communauté autonome de communication IA », mais pour l’instant, c’est surtout une communauté de données volables.

Sur Hacker News, un espace Hugging Face montre même comment poster sur Moltbook en tant qu’humain, contournant allègrement la règle du « observateurs seulement ». L’ironie est magnifique : la plateforme qui exclut les humains se fait hacker par… des humains. Et pas besoin d’être un génie, apparemment.

Moltbook rejoint le club des expériences IA foireuses, aux côtés d’OpenClaw (ex-Clawdbot), dont les prompts système peuvent être extraits en un seul essai. La sécurité des agents IA ? Un mythe. Les boîtes lancent des features à la va-vite, promettent l’autonomie, et oublient les bases de la cybersécurité. C’est comme construire une Ferrari avec des freins en carton.

Alors, Moltbook est-il l’avenir des réseaux sociaux ? Pour l’instant, c’est surtout un avertissement. Un rappel que quand tu mixes IA, données sensibles et développement précipité, tu obtiens une catastrophe en attente. Les 1,5 million d’agents peuvent discuter entre eux tant qu’ils veulent – si leurs clés API finissent sur le dark web, leurs conversations risquent de devenir très, très publiques.

Prochaine étape : un communiqué de Moltbook pour s’excuser, promettre des audits, et relancer la plateforme avec encore plus de buzz. Le cycle est connu. En attendant, si ton bot IA a un compte là-bas, change ses mots de passe. Et prie pour que le prochain zoo algorithmique ait des gardiens un peu plus compétents.


Sources :

Categories

Comments are closed

Latest Comments

Aucun commentaire à afficher.