Command Palette
Search for a command to run...
建设性安全对齐 CSA
建设性安全对齐(Constructive Safety Alignment, CSA)是由阿里巴巴集团安全部联合清华大学等高校于 2025 年 9 月联合提出的,相关研究成果发表于论文「Oyster-I: Beyond Refusal – Constructive Safety Alignment for Responsible Language Models」。
大语言模型(LLMs)通常会部署安全机制以防止生成有害内容。 CSA 不仅可以防止恶意滥用,而且可以主动引导非恶意用户实现安全和有益的结果。它超越了被动防御和一刀切的拒绝,转向主动、安全且有益的指导,将安全视为双重责任:不仅防止伤害,还要帮助用户识别合法和值得信赖的解决方案。