AI顶尖专家热议规模扩展:是通往通用智能的必经之路吗?
人工智能领域的顶尖专家正在就“规模定律”是否已走到尽头展开激烈讨论。被誉为“AI教父”的杰弗里·辛顿表示,尽管有人认为大规模扩展的时代即将终结,但他并不认同这一观点。他指出,未来大型聊天机器人或将通过自我推理生成数据,从而缓解高质量训练数据稀缺的问题。 辛顿提到,像谷歌DeepMind的AlphaGo和AlphaZero这类早期系统,正是通过自我对弈不断生成新数据来提升性能,这一机制或许可被语言模型借鉴。他设想,当语言模型具备自我推理能力,能够判断自身信念之间的逻辑一致性,并据此修正错误时,就能主动创造新的训练数据。“它会说:‘我信这些,这些意味着那个,但我并不相信那个,所以我得改点什么。’”这种自我纠错过程将极大扩充可用数据量。 然而,也有不少AI领袖对单纯依赖规模扩张持怀疑态度。OpenAI联合创始人伊利亚·苏茨克弗近期表示,AI发展的重心正从“盲目扩大规模”转向更具挑战性的基础研究。他认为,虽然更大的计算资源和数据确实能带来进步,但简单地增加100倍规模未必能彻底改变现状,真正的突破仍需依赖创新研究。 Meta前首席AI科学家杨·勒昆也表达了类似观点,强调不能假设更多数据和算力必然带来更智能的AI。他与苏茨克弗一样,已离开Meta并创办了自己的AI公司。 相比之下,谷歌DeepMind首席执行官德米斯·哈萨比斯则坚持认为,当前系统的规模化仍是通往通用人工智能(AGI)的关键路径。他在去年12月的Axios AI+峰会上表示,必须将现有系统的规模推向极限,因为这不仅是AGI的重要组成部分,甚至可能是其全部。 与此同时,现任Meta超智能部门负责人、Scale AI前CEO亚历山大·王也曾公开指出:“规模问题是当今行业最大的疑问。”这场关于AI未来方向的辩论,正反映出技术巨头与顶尖科学家之间在战略路径上的深刻分歧。
