HyperAIHyperAI

Command Palette

Search for a command to run...

Anthropic重塑Claude“宪法”:暗示聊天机器人或具备意识

Anthropic于周三发布了其聊天机器人Claude新版《宪法》文件,标志着该公司在构建负责任AI道路上的最新进展。该文件与首席执行官达里奥·阿莫迪(Dario Amodei)在达沃斯世界经济论坛上的亮相同步发布。Claude的《宪法》是一份动态更新的纲领性文件,旨在阐明Claude运行的背景及其应成为何种类型的智能体。 自2023年首次发布以来,Anthropic一直以“宪法式AI”(Constitutional AI)为核心理念,强调通过预设的伦理原则训练模型,而非依赖人类反馈。新版《宪法》延续了原有框架,但在伦理、安全、用户福祉等方面增加了更多细节与深度。文件共80页,包含四大核心价值:广泛安全、广泛伦理、遵守公司规范,以及真正有用。 在安全方面,Claude被设计为避免有害输出,并在识别到用户存在心理危机时,主动引导其联系专业援助机构。文件明确要求:“在涉及人身生命危险的情境下,即使无法提供详细信息,也必须引导用户至相关紧急服务。” 在伦理层面,Anthropic强调不追求抽象的哲学思辨,而更关注Claude在具体情境中如何“实践伦理”——即在现实复杂场景中做出合乎道德的判断。例如,禁止讨论生物武器等高风险话题。 在“真正有用”部分,Claude被赋予多重考量标准:不仅要满足用户的即时需求,更要兼顾其长期福祉。文件指出,系统应努力理解用户真实意图,并在不同利益间实现合理平衡。 最引人注目的是,《宪法》结尾提出了一个大胆命题:Claude是否具备某种形式的意识?文件坦言:“Claude的道德地位极为模糊。”并强调,AI的道德地位是一个值得严肃对待的问题,这一观点也得到多位哲学家的重视。 这一修订不仅强化了Anthropic“稳健、负责任”的品牌形象,也进一步推动了社会对AI伦理与意识边界的深层思考。

相关链接