HyperAIHyperAI

Command Palette

Search for a command to run...

Altman:AI bots让社交平台愈发虚假,语言也日益AI化

OpenAI首席执行官山姆·阿尔特曼(Sam Altman)近日在社交媒体X上发表感慨,称如今已难以分辨社交平台上的帖子究竟是由真人撰写,还是由人工智能生成。这一“顿悟”源于他在Reddit的r/Claudecode版块浏览大量关于OpenAI新编程工具Codex的讨论时的体验。 阿尔特曼指出,尽管他清楚Codex确实表现出强劲的增长趋势,但看到那些热情洋溢、几乎如出一辙的帖子时,第一反应却是“这肯定全是机器人发的”。他坦言,这种怀疑并非毫无根据,而是源于多个因素的叠加:真实用户逐渐模仿大语言模型(LLM)的表达风格,如使用特定句式、语气和标点(如破折号);“极度在线”群体在社交平台上高度趋同,形成集体行为模式;AI热潮本身具有极端化的“过热—回归”周期;平台为提升流量而对内容进行算法优化,催生了大量迎合情绪的“爆款”内容;此外,他特别提到,OpenAI自身也曾遭遇“网络水军”(astroturfing)攻击,使他对类似现象更加敏感。 值得注意的是,阿尔特曼本人曾是Reddit的股东和董事会成员,OpenAI的模型也大量训练于Reddit的历史数据,这意味着AI早已深度嵌入社交话语体系。如今,人类用户在表达中不自觉地模仿AI语言风格,反而让“真假难辨”成为常态。 这一现象也引发外界对AI社交平台前景的质疑。有分析认为,阿尔特曼的言论或隐含为OpenAI即将推出的社交产品造势——尽管该计划尚处早期阶段。然而,即便未来真推出一个“无真人参与”的AI社交网络,结果可能也无本质不同:荷兰阿姆斯特丹大学的研究显示,完全由AI机器人组成的社交网络,依然会自发形成小圈子、回音室和群体极化现象。 与此同时,其他科技界人士也表达了类似担忧。Y Combinator联合创始人保罗·格雷厄姆指出,如今不仅有国家或组织操控的虚假账号,还有大量“个人网红”在用AI批量生成内容。Substack CEO克里斯·贝斯特则警告,未来将充斥大量“AI垃圾内容”,专门诱导用户点击,形成虚假活跃。 阿尔特曼的观察揭示了一个深刻现实:当AI不仅能模仿人类写作,还能塑造人类表达方式时,我们正站在一个“后真实”传播时代的门槛上。辨别真伪,或许已不再是技术问题,而是认知与信任的挑战。

相关链接