斯坦福最新报告:AI透明度集体下滑,IBM领跑,马斯克xAI垫底
斯坦福大学联合多方机构发布的《2025年基础模型透明度指数》(FMTI)报告显示,全球基础模型的透明度出现集体倒退。尽管模型性能持续提升,但在训练数据来源、模型训练过程及部署后影响等方面的披露却显著减少。2025年平均得分降至40分,远低于2024年的58分,几乎回落至2023年首次发布时的水平(满分100分)。 报告评估了13家主流模型公司,包括IBM、OpenAI、Meta、阿里巴巴、DeepSeek及马斯克的xAI等,首次纳入中国企业和新兴AI实验室。评估维度涵盖数据获取、使用、训练计算、模型部署后的监控与影响等多个方面,新增多项指标以提升全面性。 在得分排名中,IBM以95分位居榜首,展现出高度透明的披露实践,尤其在训练数据来源、第三方验证和可复现性方面表现突出。而xAI与Midjourney得分最低,仅14分,信息披露极为有限。中国公司方面,阿里巴巴与DeepSeek得分均位于中下游,尤其在“使用数据”“部署后影响”“监控机制”三项关键指标上均得分为0,表明缺乏实质性披露。 报告指出,透明度高的公司通常具备开放模型、以企业服务(B2B)为主、主动发布透明度报告或签署欧盟AI法案行为准则等特征。但透明度并不等同于开源或性能优越。清华大学邱寒副教授强调,透明度是安全治理的前提,但并非模型能力的直接指标。例如,得分最高的IBM Granite 3.3模型在实际性能上并非顶尖,而一些高性能模型如Qwen3或Claude的API仍因缺乏透明度披露而得分偏低。 邱寒指出,完全不透明的“黑盒”模型难以评估偏见、隐私风险与价值观偏差,一旦发生安全事件,可能引发过度监管,反而阻碍技术发展。因此,未来目标不应是强制全面公开,而是实现“行为可测、声明可证、安全可控”的可验证透明。 报告警示,当前透明度倒退趋势需引起重视。政策制定者应推动建立激励机制,引导企业披露关键信息,同时发展黑盒模型评测技术,以在保障安全与促进创新之间取得平衡。透明度的提升,最终依赖于权责清晰、可验证、可持续的治理框架。
