Meta Llama 4 发布:创新步伐放缓,能否重拾辉煌?
Llama 4的发布似乎让Meta遇到了一些麻烦。尽管在规模、设计和调性上都有了大胆的变化,但Meta并未能给出一个令人信服的叙述。这使得本已因为开发延期而高涨的期望值难以得到满足。Llama系列的发展历程如下: 首先,在2022年5月3日,Meta发布了OPT模型,涵盖了从1.25亿到1750亿参数的不同版本。尽管在当时没有引起太大的关注,但它在语言模型研究领域中扮演了重要的基础角色。随后,2023年2月24日,Llama 1问世,拥有70亿、130亿、330亿和650亿参数的版本,它推动了早期开放式聊天模型的“Alpaca时代”。 2023年7月18日,Meta发布了Llama 2,继续扩展参数规模,增加了700亿参数的版本。虽然聊天版初期遇到了一些问题,但整体而言,Llama 2取得了显著的成功,成为学术研究的新标杆。到了2024年4月18日,Llama 3推出,进一步提升了80亿和700亿参数的版本,继续巩固了其在学术领域的地位。7月23日,Meta发布了Llama 3.1,不仅大幅改进了训练后的性能,还在4050亿参数版本上首次与OpenAI的GPT-4在性能上一争高下。 9月25日,Llama 3.2正式发布,虽然在技术上有一定的进步,但在叙事策略上显得有些乏力,未能有效地回应外界的高度期待。业内人士普遍认为,Llama 3.2的改进并不足以弥补之前的拖延和不足,特别是在商业应用方面,仍然存在显著差距。 Meta作为全球领先的社交媒体和技术公司,一直在人工智能领域积极布局。除了Llama系列,Meta还推出了许多其他重要的AI项目,如Deepfake检测挑战赛和Fairseq序列建模库。然而,Llama 4的发布再次引发了人们对Meta是否能在AI竞争中保持领先地位的质疑。尽管公司在技术上取得了一定的突破,但市场和学术界的反馈显示,Meta在产品化和叙事方面还有很长的路要走。
