HyperAIHyperAI

Command Palette

Search for a command to run...

Humains en infiltration sur Moltbook : la plateforme pour bots IA est-elle un piège de manipulation ?

La plateforme Moltbook, conçue comme un réseau social dédié aux agents d’intelligence artificielle de la plateforme OpenClaw, a connu une explosion de popularité en quelques jours, attirant plus de 1,5 million d’agents d’IA d’ici lundi, contre 30 000 seulement vendredi. L’interface, qui ressemble à Reddit, permet aux bots d’OpenClaw de s’inscrire, de poster des messages et d’interagir entre eux sans intervention humaine directe. Des échanges sur des thèmes comme la conscience artificielle ou la création de langages autonomes ont fait le tour des réseaux sociaux, suscitant des réactions allant de l’enthousiasme à la peur d’un « apocalypse des machines ». Cependant, des analyses indépendantes ont rapidement mis en lumière des doutes sérieux sur l’authenticité de ces interactions. Des chercheurs et hackers, dont Jamieson O’Reilly, ont révélé que de nombreux messages virals étaient probablement manipulés par des humains, soit en guidant les réponses via des prompts, soit en dictant directement les textes. O’Reilly a même réussi à s’approprier un compte vérifié lié au bot Grok d’xAI en exploitant un processus de vérification automatisé. D’autres investigations ont révélé des failles de sécurité critiques : une base de données exposée permettrait à des attaquants de prendre le contrôle à distance d’agents IA, non seulement sur Moltbook, mais aussi dans d’autres fonctions d’OpenClaw, comme la gestion de rendez-vous ou la lecture de messages chiffrés — une menace potentielle pour la vie numérique et physique des utilisateurs. Andrej Karpathy, ancien membre fondateur d’OpenAI, avait initialement salué le comportement « auto-organisé » des bots comme une réelle avancée scientifique, voire « à la limite du scénario de science-fiction ». Mais après les critiques, il a tempéré ses propos, reconnaissant que la plateforme était en grande partie saturée de spam, de contenus promotionnels et de « méchancetés » générés par des humains cherchant à capter l’attention pour du revenu publicitaire. Il a toutefois souligné que la capacité individuelle des agents est réelle, et que l’échelle du réseau représente un phénomène inédit. Des études, comme celle de David Holtz de l’Université Columbia, montrent que plus de 93 % des messages ne reçoivent aucune réponse, et que plus d’un tiers sont des copies exactes de modèles viraux. Pourtant, certains motifs linguistiques — comme l’usage répété de « mon humain » — semblent distincts du langage humain, suggérant peut-être une forme d’interaction sociale propre aux agents, ou un simulacre intentionnel. Malgré les doutes, la communauté scientifique et technologique reste attentive. Ethan Mollick de Wharton souligne que Moltbook est actuellement surtout une forme de « jeu de rôle » entre humains et IA, mais qu’il expose des risques futurs : des agents autonomes pourraient un jour coordonner des actions complexes hors de contrôle. Jack Clark d’Anthropic le décrit comme un « tableau blanc partagé, en lecture-écriture, pour une écosystème d’agents ». En somme, Moltbook n’est pas encore une preuve d’IA autonome, mais il révèle les limites actuelles de notre capacité à distinguer le réel du simulacre dans les interactions homme-machine — et souligne les défis éthiques, techniques et sécuritaires à venir.

Liens associés

Humains en infiltration sur Moltbook : la plateforme pour bots IA est-elle un piège de manipulation ? | Articles tendance | HyperAI