HyperAI超神经
Back to Headlines

解密苹果生成模型安全文件:揭示智能过滤背后的规则

2 days ago

近日,一位用户名为BlueFalconHD的开发者在GitHub上发布了一个项目,名为“apple_generative_model_safety_decrypted”。这个项目旨在解密苹果智能生成模型的安全过滤文件,帮助理解这些过滤规则的具体内容和工作原理。 项目的核心人物是BlueFalconHD,他发现并分享了这一解密过程。根据BlueFalconHD的描述,这些安全过滤文件位于苹果系统的某个扩展中(/System/Library/ExtensionKit/Extensions/GenerativeExperiencesSafetyInferenceProvider.appex/Contents/MacOS/GenerativeExperiencesSafetyInferenceProvider)。要获取这些文件的加密密钥,必须使用Xcode自带的LLDB工具,而不是默认的macOS或LLVM版本的LLDB。 具体解密过程非常简单。首先,开发者需要通过pip安装cryptography库来支持解密脚本的运行。接着,使用LLDB附着到生成体验安全推理提供者进程,从而获取加密密钥。最后,在项目的根目录下执行提供的解密命令,即可将安全过滤文件解密并保存到decrypted_overrides目录中。如果该目录不存在,解密脚本会自动创建。 值得注意的是,这些安全过滤文件是JSON格式的,其中包含了各种生成模型的安全规则。这些规则涉及模型如何处理特定情景下的信息,比如过滤掉有害内容,确保输出符合安全标准等。项目中提到了一个具体的例子,展示了model output类型的安全过滤文件的结构(metadata.json来自dec_out_repo/decrypted_overrides/com.apple.gm.safety_deny.output.code_intelligence.base): reject字段列出了会被直接拒绝的特定短语,这表示任何包含这些短语的内容都会被标记为违规。 remove字段则列出了需要从输出中移除的短语。 replace字段包含了需要替换的内容,以及对应的替换文本。 regexReject, regexRemove 和 regexReplace字段使用正则表达式来匹配和过滤内容,方法与上述三个字段类似。 这些安全过滤规则的设计旨在保障苹果智能生成模型的用户不会接触到不当或危害性的内容,同时也保证了模型输出的合规性和可靠性。通过BlueFalconHD的项目,外界可以更加清楚地了解苹果在生成模型安全方面所做的努力和技术细节。 业内人士对此项目的发布给予了积极的评价,认为它有助于提升大众对于AI模型安全性的关注,同时也为其他开发者提供了研究和改进的参考。苹果公司作为全球领先的科技企业之一,在AI领域一直走在前沿,特别是在保护用户数据隐私和内容安全性方面,投入了大量的资源和技术研发。该项目的出现,无疑为苹果AI生态的研究者和爱好者们打开了一扇新的窗户,让他们能够更深入地理解和探索苹果在这些领域的实践。 不过,需要注意的是,未经许可的解密行为可能违反苹果的安全政策和法律法规,因此,在使用该工具时应谨慎行事,不得用于恶意目的。此项目更多是为了学术研究和技术探讨之用,而非鼓励任何形式的侵权行为。

Related Links