生成式AI增速放缓,技术发展进入新阶段
多年来,人工智能的进步主要依赖于“模型越大,性能越强”的逻辑。但如今,这一模式似乎正在失效。随着生成式AI的发展,行业内部对技术进步的讨论方式已悄然变化。过去几年,AI的提升仿佛是自然规律,每代模型(如从GPT-2到GPT-3,再到GPT-4)都带来了质的飞跃,让人坚信性能会随着数据量和算力的增加而稳定提升。然而,这种可预测的指数级增长正在放缓,技术突破不再像以前那样明显。 这一趋势被称为“扩展定律”,最初由一些权威研究支持,认为只要持续扩大模型规模和训练数据,AI性能就能线性甚至指数级提升。但如今,研究人员发现,这种增长的边际效益正在递减,继续扩大模型的投入产出比不再理想。 面对这一挑战,AI公司正开始探索新的方向,比如优化算法、提升数据质量或采用更高效的训练方式。这标志着AI发展进入了一个新阶段,不再单纯依赖规模扩张,而是转向更精细的技术创新。
