HyperAIHyperAI

Command Palette

Search for a command to run...

Stanford-Report: AI-Transparenz sinkt, IBM führt, xAI letzter

斯坦福大学联合多家研究机构发布的《2025年基础模型透明度指数》(FMTI)揭示了全球AI基础模型在透明度方面出现显著倒退。尽管模型性能持续提升,但企业在训练数据来源、计算资源使用、部署后影响监控等关键环节的信息披露却大幅减少。2025年报告中,13家主要模型开发企业平均得分从2024年的58分骤降至40分,几乎回到2023年首次发布时的水平,反映出行业整体透明度“集体退步”。IBM以95分高居榜首,成为唯一接近满分的公司,其在数据使用、训练过程、第三方验证和可复现性方面表现突出。相比之下,马斯克旗下xAI与图像生成平台Midjourney并列垫底,仅获14分,暴露出在数据披露、影响评估和部署监控等核心维度的严重缺失。中国公司DeepSeek与阿里巴巴在透明度上表现中等偏下,尤其在“使用数据”“部署后影响”“监控机制”三项关键指标上均得分为0,虽非完全未披露,但未按标准格式提供可验证信息,导致评分归零。报告指出,开放模型、B2B导向、主动发布透明度报告或签署欧盟AI法案行为准则的公司普遍得分更高,显示企业战略与透明度之间存在正向关联。清华大学邱寒副教授强调,透明度并非等同于开源,而是一套基于具体指标的量化评估体系。例如,若未按要求披露训练数据构成或测试集重叠情况,即使有部分信息公布,相关指标仍得0分。透明度高不等于性能强——IBM的Granite 3.3模型虽透明度最高,但在实际应用性能上并非顶尖。反之,如Qwen3或Claude等模型虽性能优异,但因信息披露不足而影响透明度评分。邱寒指出,完全不透明的“黑盒”模型难以评估偏见、安全风险与伦理影响,一旦发生事故,可能引发过度监管,阻碍技术发展。因此,透明度的核心价值在于为安全治理提供基础,而非直接决定模型优劣。未来理想状态应是“无需完全公开,但行为可测、声明可证、风险可控”。报告呼吁建立激励机制与政策框架,推动企业在保护商业机密的同时履行社会责任,实现可信AI的发展路径。 业内专家普遍认为,此次报告揭示的问题具有警示意义:透明度下降反映的是企业在快速发展中对治理责任的忽视。尽管当前评估体系仍有局限,但其推动行业反思透明边界的作用不可低估。随着监管趋严与公众关注度上升,透明度或将从“加分项”演变为“必选项”。

Verwandte Links