HyperAIHyperAI

Command Palette

Search for a command to run...

斯坦福报告揭示AI透明度集体倒退:IBM领跑,马斯克xAI垫底

斯坦福大学联合多方机构发布的《2025年基础模型透明度指数》(FMTI)揭示了一个令人警惕的趋势:尽管人工智能基础模型在性能上持续突破,其透明度却出现系统性倒退。报告显示,2025年模型平均透明度得分降至40分(满分100),较2024年的58分明显下滑,已接近2023年首次发布时的水平。 本次评估涵盖13家全球主要模型开发商,包括首次参评的阿里巴巴、DeepSeek及马斯克旗下的xAI。评估维度覆盖训练数据来源、计算资源使用、模型部署后的监控与影响评估等多个方面,新增了对数据获取与第三方参与机制的考察。结果显示,企业在模型能力与风险评估方面的披露相对充分,但在方法可复现性、训练-测试数据重叠、第三方验证等关键透明度指标上仍存在显著短板。 在企业表现方面,IBM以95分高居榜首,其Granite系列模型在数据来源、训练过程与影响评估方面披露详尽,展现出高度的开放性。相比之下,xAI与Midjourney仅获14分,信息披露极为有限。中国公司中,阿里巴巴与DeepSeek得分处于中下游,尤其在使用数据、部署后影响监控等核心指标上均得分为零,表明其在关键环节缺乏系统性披露。 值得注意的是,透明度并非等同于开源。清华大学邱寒副教授指出,该指数采用量化评分体系,未按标准披露即得零分,而非“完全未披露”即视为零。例如,某些企业虽未公开全部训练数据,但提供了部分评测方法或模型行为分析,仍可能获得部分分数。透明度高并不意味着模型性能更强——IBM的Granite 3.3虽透明度领先,但在实际应用性能上并非顶尖。 透明度的核心价值在于安全与治理。缺乏透明将导致模型偏见、隐私滥用等问题难以追溯与验证,一旦发生重大安全事件,可能引发过度监管,反而阻碍技术发展。邱寒强调,理想的透明不应是完全公开,而是实现“行为可测、声明可证、安全可控”的可信赖机制。 报告同时指出,企业类型与透明度呈现一定关联:以B2B为导向、主动发布透明度报告或签署欧盟AI法案行为准则的公司,普遍得分更高。这表明制度性承诺与外部监督对提升透明度具有积极作用。 长远来看,透明度的提升需依赖激励机制与监管协同。未来不应仅依赖企业自觉,而应构建权责清晰、可验证的评估体系,推动技术发展与社会信任的良性循环。透明度的倒退是一次警示,更是一次契机——唯有在安全与开放之间找到平衡,才能真正实现可信AI的可持续演进。

الروابط ذات الصلة

斯坦福报告揭示AI透明度集体倒退:IBM领跑,马斯克xAI垫底 | القصص الشائعة | HyperAI