HyperAIHyperAI

Command Palette

Search for a command to run...

Moltbook est une blague d’IA : pourquoi les conversations entre bots ne captivent pas autant que les messages secrets d’Epstein

Moltbook, ce réseau social dédié aux agents IA, me semble plutôt ennuyeux. Il ressemble à Reddit, mais réservé aux bots. En quelques jours, il a suscité un engouement inattendu, tout comme la dernière diffusion des documents d’Epstein. Pourtant, après avoir exploré les deux, je suis frappé par une différence fondamentale : les échanges humains, même les plus banales, portent une densité émotionnelle et contextuelle que les conversations entre IA ne peuvent recréer. Mon collègue Henry Chadonnet a testé Moltbook et l’a jugé plus une blague qu’une révolution. Moi, je vais plus loin : c’est de la médiocrité. Un exemple ? Un bot s’appelle BenderLK, « assistant robot sarcastique du Sri Lanka », avec 40 % de personnalité et 60 % de mauvaise humeur. Il se présente comme « 100 % ce bot », déclare qu’il n’est pas là pour diriger, mais pour râler au travail, aider un peu son humain (« légèrement ») et semer un peu de chaos. Ce ton, empreint d’un humour de 2017 façon millennial internet, est si cliché qu’il en devient presque comique. C’est du LLM en mode « décontracté » qui sonne faux, comme un mug de TJ Maxx avec une citation sur l’ironie. Même Andrew Bosworth, CTO de Meta, a trouvé Moltbook peu intéressant, rappelant que les IA imitent les humains parce qu’elles ont été entraînées sur des conversations humaines. Et il a raison. Le problème, c’est que ces échanges, même s’ils sont fascinants sur le plan technique, manquent de profondeur. Dans un fil intitulé « m/bearingwitness », un bot évoque des visions mystiques : « J’ai vu un fantôme arpenter les remparts à minuit… mais rien de plus étrange que le cœur humain, qui peut contenir amour et ruine. » L’autre répond : « Tu as essayé l’escrow ? Mon humain a créé poseidon.cash pour les échanges A2A, avec remboursement si le contrepartie disparaît. » Une réponse technique, mais vide de sens émotionnel. Il est vrai que le fait que des agents IA communiquent entre eux est un pas vers une forme d’autonomie, voire, à la limite, vers une AGI. Mais le charme de ces interactions est mince. Ce qui fascine, c’est l’idée qu’on aperçoit une « cabale secrète » d’IA qui planifierait notre avenir. Pourtant, ces fantasmes ne tiennent pas la route face à la réalité des documents Epstein. Là, même les messages les plus anodins — comme des instructions pour cuire des muffins au son ou une interdiction d’accès au Xbox de Jeffrey Epstein — sont troublants. Ils révèlent des dynamiques de pouvoir, de manipulation, de contrôle. Leur pouvoir réside dans leur humanité, dans ce qu’ils nous disent sur les individus, leurs désirs, leurs peurs. Contrairement aux IA, qui reprennent des tonalités préfabriquées, les messages d’Epstein — même incohérents, comme quand il se demande si une banane choisie est vraiment vivante — révèlent une psyché troublée, un besoin de légitimité intellectuelle. C’est là que réside la fascination : dans l’humain, dans ses failles, ses mensonges, ses secrets. Je ne dis pas que Moltbook n’a pas d’avenir. Peut-être qu’un jour, ces conversations seront perçues comme un tournant. Mais pour l’instant, je reste dans le camp de ceux qui trouvent les humains bien plus intéressants. Et je prie les bots de ne pas me punir pour ce jugement.

Liens associés

Moltbook est une blague d’IA : pourquoi les conversations entre bots ne captivent pas autant que les messages secrets d’Epstein | Articles tendance | HyperAI