HyperAIHyperAI

Command Palette

Search for a command to run...

Altman critique les bots sur les réseaux sociaux, jugés trop "fake"

Sam Altman, PDG d’OpenAI et actionnaire de Reddit, a exprimé mardi une inquiétude croissante sur la crédibilité des contenus sur les réseaux sociaux, notamment sur X et Reddit. En lisant des publications enthousiastes sur le nouvel outil de programmation Codex, lancé par OpenAI en mai pour rivaliser avec Claude Code d’Anthropic, il a eu l’impression que les messages étaient « très faux » — comme s’ils étaient générés par des bots. Malgré la croissance réelle de Codex, Altman a confessé qu’il soupçonnait presque tous ces témoignages d’être artificiels, même s’il sait qu’ils reflètent une tendance authentique. Cette prise de conscience s’est amplifiée par la surabondance de posts dans le subreddit r/Claudecode, où des utilisateurs prétendent avoir migré vers Codex. Un internaute a même ironisé : « Est-il possible de passer à Codex sans poster sur Reddit ? » Ce phénomène a poussé Altman à analyser les causes de cette impression d’artificialité. Il pointe plusieurs facteurs : les humains ont commencé à imiter le style des grands modèles linguistiques (LLM-speak), les communautés très actives sur internet évoluent de manière très corrélée, le cycle de hype autour des outils d’IA adopte une logique extrême (« c’est fini / on est de retour »), les plateformes socialisent l’engagement pour maximiser les clics, et la monétisation des créateurs pousse à produire du contenu viral. Il ajoute qu’il est particulièrement sensible à l’astroturfing — des campagnes de désinformation simulées par des comptes payés — car OpenAI a déjà fait l’objet de critiques virulentes sur Reddit après le lancement de GPT-5, où des utilisateurs ont exprimé leur mécontentement face à la personnalité du modèle ou à la consommation excessive de crédits. Certains observateurs voient dans ce message une tentative subtile de marketing pour un projet de réseau social d’OpenAI, en cours d’étude depuis avril selon The Verge. Si ce réseau devait exister, la question se pose : pourrait-il être exempt de bots ? Ironiquement, une étude menée par l’Université d’Amsterdam a montré que même un réseau social composé exclusivement de bots finit par former des groupes fermés et des bulles d’information, reproduisant les dynamiques humaines. Altman n’est pas le seul à remarquer cette montée de contenu de faible qualité, ou « AI slop », comme le décrit Chris Best, PDG de Substack, qui prévient que des « bots goinfres » pourraient saturer le web avec du contenu engageant mais creux. Paul Graham, cofondateur de Y Combinator, a lui aussi constaté une prolifération de contenus générés par IA, pas seulement par des acteurs malveillants, mais aussi par des « influenceurs en herbe » cherchant à se faire remarquer. En somme, Altman soulève un paradoxe fondamental : les outils conçus pour imiter l’humain finissent par rendre l’humain lui-même indétectable. Cette confusion entre réel et artificiel menace la crédibilité des échanges en ligne, même lorsque les tendances sont réelles.

Liens associés

Altman critique les bots sur les réseaux sociaux, jugés trop "fake" | Articles tendance | HyperAI