8 天前

10 大型基础模型中的安全与隐私问题

Jinyuan Jia, Hongbin Liu, Neil Zhenqiang Gong
10 大型基础模型中的安全与隐私问题
摘要

近年来,基础模型(如GPT、CLIP和DINO)取得了革命性进展,普遍被认为是一种具有前景的通用人工智能(AI)实现路径。特别是,通过自监督学习方法,利用海量无标签数据对基础模型进行预训练,已成为主流范式。一个预训练完成的基础模型,可被视为人工智能生态系统中的“操作系统”。具体而言,该模型可作为多种下游任务的特征提取器,在仅需极少甚至无需标注数据的情况下实现高效应用。现有针对基础模型的研究主要聚焦于如何通过改进预训练过程,提升模型在非对抗性环境下的下游任务性能,而对其在对抗性环境下的安全性与隐私保护问题则关注不足。然而,预训练基础模型一旦存在安全或隐私缺陷,将导致整个AI生态系统的单点失效风险。在本章中,我们系统性地探讨了预训练基础模型面临的十大基本安全与隐私问题,其中包括六类机密性问题、三类完整性问题以及一类可用性问题。针对每一类问题,我们分析了潜在的研究机遇与技术挑战。我们期望本章内容能够激发未来在基础模型安全与隐私领域的深入研究。

10 大型基础模型中的安全与隐私问题 | 最新论文 | HyperAI超神经