Back to Headlines

开源通用AI模型企业级应用安全性获新评估证实

4 天前

一项由LatticeFlow AI主导、与SambaNova合作开展的新评估显示,经过针对性安全防护措施加固后,主流开源生成式AI模型的安全性大幅提升,安全评分从平均仅1.8%跃升至99.6%,在企业级测试中甚至超过部分闭源模型,具备在金融、政府等高度监管行业部署的可行性。 此次评估针对当前使用最广泛的五款开源大模型,分别测试其原始版本(未经加固)和部署了专用输入过滤层(即“安全护栏”)后的表现。测试重点模拟了企业环境中常见的网络安全威胁,如提示注入攻击和恶意操控,以评估模型的抗风险能力及对用户体验的影响。 结果显示,所有模型在启用安全护栏后,安全得分均接近满分,且服务质量保持在98%以上,证明安全增强并未牺牲模型可用性。这一成果首次为开源GenAI在企业中的安全落地提供了可量化的技术证据。 长期以来,尽管企业对开源模型在灵活性、避免厂商锁定和加速创新方面的优势高度关注,但因缺乏清晰、可验证的安全评估标准,实际部署进展缓慢。此次评估填补了这一空白,为AI、风控与合规负责人提供了决策依据。 SambaNova首席营收官Harry Ault表示,包括金融机构和政府机构在内的客户正加速采用开源模型与高效推理技术,推动下一代智能应用发展。LatticeFlow AI的评估证实,只要配备适当防护机制,开源模型完全可满足监管行业对安全、可控与可审计的要求。 LatticeFlow AI联合创始人兼CEO Dr. Petar Tsankov强调,公司致力于提供最深入的技术评估能力,帮助企业在信任与效率之间取得平衡。其推出的COMPL-AI框架是全球首个基于欧盟《人工智能法案》的生成式AI合规体系,由瑞士苏黎世联邦理工学院(ETH Zurich)与INSAIT联合开发,融合了严谨的科研方法与瑞士式精准治理标准。 该评估标志着开源GenAI正从“实验性工具”迈向“企业级基础设施”的关键一步,为AI安全治理树立了新标杆。

Related Links