HyperAI超神经
Back to Headlines

Meta重启AI训练,OpenAI扩大安全空间应对高风险模型竞争

11 天前

Meta 近日宣布将重新启动利用公开内容优化其人工智能模型的训练工作。这一决定是在去年因数据隐私问题暂停相关研究后的恢复。根据新计划,Meta 将主要使用在27个欧盟国家的成年用户所分享的公开帖子和评论进行训练。此外,用户与 Meta AI 的互动内容,如提问和查询,也将被纳入模型的训练和改进。 Meta 此举既反映出公司在 AI 技术上的持续进取,也展示了其在数据隐私保护方面的改进措施。过去几个月,Meta 与数据保护监管机构和用户群体进行了多次沟通,确保新的训练方法符合欧盟严格的隐私法规。未来,Meta 将优先关注多元文化内容的处理能力,以提高其在全球市场的竞争力,提供更加智能和个性化的服务。 与此同时,OpenAI 近期针对 AI 安全框架进行了更新,引发了广泛关注和争议。公司在博客中宣布,将在其他前沿 AI 开发者发布高风险系统而没有 similar 安全措施时调整自己的安全标准。OpenAI 发言人解释,GPT-4.1 并不是“前沿”模型,因此未提供通常所需的安全报告。此前,该公司推出的 Deep Research 工具也在数周后才发布详细的系统卡,导致外界对其安全承诺和透明度的质疑。 前 OpenAI 安全研究员 Steven Adler 指出,最新的安全框架放弃了对微调模型进行安全测试的要求,这是2023年12月发布的安全框架中明确提到的。其他前 OpenAI 员工也加入了批评的行列,上周有12名前员工提交动议,请求法官在 Elon Musk 对 OpenAI 的诉讼中听证他们的意见。他们担心公司转变为盈利实体后可能削减安全开支,将权力集中于股东手中。 面对安全与竞争之间的平衡挑战,OpenAI CEO Sam Altman 在 TED2025 的采访中为公司的安全政策辩护。他表示,尽管公司在某些情况下放宽了模型行为的限制,但这并不意味着放弃了安全审查,而是基于用户需求和体验的考虑。他强调,所有放松限制的前提是确认风险状况未显著增加。 除了安全框架的调整,OpenAI 还采取了开发者准入管理的新举措,要求开发者提供政府颁发的身份证明,以获取其最先进 AI 模型的访问权限。这一决定旨在防止模型被滥用,同时也因为竞争对手可能利用 OpenAI 的输出训练自己的模型。Copyleaks 公布的研究报告指出,DeepSeek-R1 模型输出中有 74% 被认定为 OpenAI 生成的内容,显示了模仿的严重性。 开发者通过抓取网络内容来构建 AI 模型的做法在早期 AI 研究中较为常见,但未经授权使用他人的专有 AI 输出则涉及更严重的伦理和法律问题。数字指纹技术的出现为解决这一问题提供了新的工具,有助于验证模型来源,保护知识产权。OpenAI 的新举措不仅是对其技术和创新的保护,也提醒其他公司在快速发展的 AI 行业中必须重视合规和伦理问题。 总的来说,Meta 和 OpenAI 的最新举措不仅反映了 AI 技术的发展趋势,也揭示了公司在技术进步与数据安全之间的复杂平衡。这两家公司在面对挑战时,都试图通过改进方法来确保技术的合法性和安全性,为用户提供更好的服务和体验。这些举措不仅对两家公司至关重要,也可能为 AI 行业设立新的标准。 Meta 是一家位于美国的科技巨头,拥有多款广受欢迎的社交平台,如 Facebook、Instagram 和 WhatsApp。公司在 AI 技术上的努力旨在提升用户体验,推动技术创新。OpenAI 由 Elon Musk 和 Sam Altman 等人于2015年创立,最初以非营利组织的形式运营,旨在开发安全的 AI 技术。近年来,随着微软等公司的巨额投资,OpenAI 正逐渐转型为一个盈利性的科技企业,以支持其庞大的研发需求。 在 AI 安全和数据隐私方面,Meta 和 OpenAI 的新举措引发了专家和行业的广泛关注。专家认为,AI 行业的快速发展需要更加严格的安全和透明度标准,以确保技术的合理、安全使用。这些新措施不仅是对用户隐私和知识产权的保护,也可能成为整个行业的风向标,未来可能会有更多的公司效仿。

Related Links