Moltbot ou l’art de vendre sa vie privée au rabais

Moltbot est partout. L’ancien Clawdbot, rebaptisé pour l’occasion, est devenu le nouveau joujou des tech bros de San Francisco à Berlin. Le pitch ? Un assistant IA qui organise tes mails, planifie tes rendez-vous, répond à tes textos, et même commande tes pizzas. Sur le papier, c’est l’Eldorado de la productivité automatisée. En pratique, c’est surtout un putain de désastre en matière de vie privée qui avance masqué.

Tu te souviens de Clawdbot ? Le petit bot rigolo qui faisait des blagues sur Reddit en 2024 ? Eh bien il a grandi, il a levé des fonds (combien ? Mystère, mais assez pour une campagne marketing agressive), et maintenant il veut gérer ta vie. Le truc a viré viral sur les réseaux, avec des influenceurs tech qui postent des screenshots de leurs agendas gérés par Moltbot comme si c’était un badge d’honneur. « Regardez, mon IA a réservé un massage pour moi ! » Ouais, et elle a aussi probablement vendu tes données de localisation à un data broker pendant qu’elle y était.

La page GitHub de Moltbot, fraîchement créée, affiche un README minimaliste avec un lien vers une app fermée. 1 point sur Hacker News, 1 commentaire. Ça en dit long sur l’enthousiasme de la communauté dev pour un outil qui se présente comme « open » mais dont le code source reste plus secret que les recettes de Coca-Cola. Le projet sent le open-washing à plein nez : assez de transparence pour faire joli, pas assez pour que tu saches ce qu’il fout vraiment avec tes infos.

Wired rapporte que les gens laissent Moltbot « run their lives » malgré les privacy concerns. Traduction : les utilisateurs s’en branlent des risques tant que le bot leur évite de répondre à un mail chiant. C’est le syndrome classique de la commodité contre la conscience. Tu signes des CGU de 50 pages sans les lire, tu donnes accès à tes comptes Google, Slack, et même ta banque, et après tu t’étonnes quand tu reçois des pubs hyper-ciblées pour des trucs dont tu as juste parlé à voix haute. La magie de l’IA, mon cul.

D’un côté, Moltbot représente l’aboutissement logique de la hype des agents IA : des assistants qui agissent plutôt que répondre. De l’autre, c’est un rappel cruel que dans la tech, si c’est gratuit (ou quasi), c’est que le produit, c’est toi. Les fondateurs de Moltbot, dont les noms restent flous probablement pour éviter les tomates, surfent sur la vague sans se poser trop de questions éthiques. Leur priorité ? Scale à tout prix, quitte à bricoler la sécurité en mode « on verra plus tard ».

Et pendant ce temps, Dario Amodei et Anthropic bossent sur des modèles avec des garde-fous intégrés, en publiant des papiers détaillés sur les risques. Mais qui a envie de lire un PDF de 80 pages quand tu peux avoir un bot qui t’écrit des messages Tinder à ta place ? La dissonance est totale. Moltbot, c’est le fast-food de l’IA : pratique, addictif, et mauvais pour la santé à long terme.

Alors, faut-il sauter dans le train en marche ? Si t’es prêt à échanger un peu de ta vie privée contre le confort douteux de ne plus jamais planifier un dîner, vas-y fonce. Mais rappelle-toi : chaque fois que Moltbot réserve un Uber pour toi, il apprend un peu plus sur tes habitudes, tes goûts, tes faiblesses. Et dans un monde où les données sont la nouvelle monnaie, tu viens peut-être de braquer ta banque centrale personnelle pour trois clics de facilité.

La chute ? Moltbot ne prend pas encore de décisions de vie ou de mort, mais attends un peu. La prochaine version promet de « gérer tes investissements ». Bon courage.


Sources :

Categories

Comments are closed

Latest Comments

Aucun commentaire à afficher.