HyperAIHyperAI

Command Palette

Search for a command to run...

抵制《纽约时报》对用户隐私的侵犯 我们始终将信任、安全与隐私置于产品与决策的核心。每周有8亿人使用ChatGPT进行思考、学习与创作,他们将最私密的对话、文件、凭证、记忆、搜索记录、支付信息,乃至代表他们行动的AI代理,托付给我们。这些数据是您数字生活中的敏感部分,我们视其为责任重大的资产,并正构建与之匹配的隐私与安全防护体系。 今天,这一责任正面临严峻考验。《纽约时报》要求我们交出2000万条私人ChatGPT对话,声称可能从中发现用户试图绕过其付费墙的证据。这一请求无视长期坚持的隐私原则,违背基本安全实践,更将迫使我们交出数千万条与《纽约时报》对OpenAI的无端诉讼完全无关的私密对话。 这并非首次。此前,《泰晤士报》曾试图剥夺用户删除聊天记录的权利,我们坚决抗争并成功恢复了这一功能。随后,他们要求获取14亿条私人对话,我们再次依法予以拒绝。如今,他们再次提出类似要求——我们仍将坚决反对。 您的私人对话属于您,不应成为在线内容访问争议中的抵押品。我们尊重独立而强大的新闻业,并与众多出版机构和新闻团队保持合作。然而,《纽约时报》此次行为背离了新闻业捍卫隐私的传统,因此我们已向法院申请驳回该请求。 我们正加速推进安全与隐私路线图,以强化对您数据的保护。作为全球最受关注的组织之一,OpenAI投入大量资源构建系统,防范从有组织犯罪到国家支持情报机构等各类威胁对您数据的非法访问。 但若《纽约时报》的要求被批准,我们将被迫将正在保护的数据——您的数据——交予第三方,包括其律师与付费顾问。我们正在开发高级安全功能,包括客户端加密,确保您的对话仅对您本人可访问,连OpenAI也无法读取。我们还将建立全自动化系统,仅在涉及生命威胁、严重伤害或重大网络安全风险时,由经过严格审查的少数人工团队介入审查。这些功能正在积极开发,我们将在近期向公众披露更多细节。 随着人工智能深入生活,隐私与安全必须更加强大。我们致力于一个未来:在那里,您最私密的AI对话真正安全、可靠且完全私密。 —— Dane Stuckey,OpenAI首席信息安全官 常见问题解答: 为何《纽约时报》提出此要求? 《纽约时报》正在起诉OpenAI。作为诉讼的一部分,他们请求法院强制我们交出2000万条用户对话,用以寻找用户绕过其付费墙的证据。我们认为这是过度且无关的请求,将严重威胁用户隐私,却无助于解决案件核心问题。我们已提出反对。 这一阶段的法律程序如何形成? 《泰晤士报》律师辩称,另一家AI公司曾在无关案件中交出500万条用户对话,因此他们也应被允许。我们强烈反对这一类比,认为其与本案无关,将继续依法申诉。 我们是否提供过替代方案? 是的。我们提出多种隐私保护选项,包括:仅搜索包含《纽约时报》文章内容的对话样本,或对用户使用ChatGPT的方式进行分类分析。这些方案均被《纽约时报》拒绝。 《纽约时报》是否负有保密义务? 是的。目前,法律要求《纽约时报》不得在法庭程序之外公开任何数据。但若其试图通过其他方式传播或公开这些内容,我们将全力阻止。 最初请求范围更广。他们曾要求14亿条对话,我们通过法律程序成功限制。这表明其请求并非审慎或必要。 这2000万条对话如何选定? 从2022年12月至2024年11月期间,随机抽取了2000万条消费者ChatGPT对话。此时间范围外的对话不受影响。 我的数据是否可能受影响? 仅限上述时间段内、在消费者版ChatGPT中生成的对话可能被纳入抽样。Business客户(包括ChatGPT Enterprise、Edu、Team及API用户)不受影响。 我们如何保护您的个人信息? 所有受影响的对话将进行去标识化处理,移除或“清除”个人身份信息(PII)及其他敏感内容,如密码、身份证号等。 我们还将确保《纽约时报》仅能在严格法律协议约束下的安全环境中查看数据。 数据将如何存储? 被法院命令覆盖的数据已单独存放在一个受法律保全保护的系统中,仅限履行法律义务时访问。仅经审计的OpenAI法律与安全团队可有限访问。 谁可访问这些数据? 《纽约时报》聘请的外部律师及其技术顾问可在严格协议下访问。我们将确保其访问行为全程受控,且不得用于任何其他目的。 若《纽约时报》试图公开这些内容,我们将全力保护您的隐私。 这是否违反GDPR或您在欧洲等地区的隐私权? 我们正努力遵守所有法律,但《纽约时报》的要求与我们的隐私标准严重不符。我们正通过法律手段挑战其请求。同时,我们已采取额外措施,如去标识化和PII清除,以最大限度保护您。 是否可随时获取更新? 是的。我们承诺保持透明,将及时向您通报进展,包括法院命令的任何变更及其对您数据的影响。

《纽约时报》要求OpenAI交出2000万条用户ChatGPT对话记录,这一举动正引发对数字隐私边界的广泛争议。OpenAI明确表示,这一请求不仅范围过度,且严重违背用户隐私保护原则。每周有8亿人使用ChatGPT处理学习、工作乃至个人生活中最私密的内容,包括敏感对话、文件、支付信息与身份凭证。这些数据被视为用户数字生活的核心部分,理应受到最高级别的保护。 然而,《纽约时报》在针对OpenAI的诉讼中,要求强制提供2000万条随机抽取的用户对话,声称可能从中发现绕过其付费墙的使用行为。OpenAI指出,这一请求远超合理范围——这些数据与案件核心争议无直接关联,却可能暴露数千万用户的私人交流。此前,《泰晤士报》曾提出更广泛的请求,要求获取14亿条对话记录,后经法律抗争被驳回。如今的2000万条请求,再次暴露其调查手段的扩张性与对隐私的漠视。 OpenAI强调,用户隐私是其产品设计与决策的核心原则。为此,公司已投入大量资源构建安全体系,抵御从网络犯罪组织到国家支持的情报机构等各类威胁。目前,OpenAI正加速推进一项全面的安全与隐私路线图,包括客户端加密技术,确保用户对话仅对本人可访问,连OpenAI自身也无法读取。同时,系统将自动检测高风险行为,仅在涉及生命安全、严重伤害或重大网络安全威胁时,由严格审查的人类团队介入处理。 面对《纽约时报》的要求,OpenAI已提出替代方案:通过定向搜索识别包含《纽约时报》内容的对话,或提供基于使用场景的分类数据,以满足诉讼需求而不泄露无关信息。但这些方案被对方拒绝。尽管《纽约时报》在法律上负有保密义务,OpenAI仍高度警惕其可能将数据用于非诉讼目的,或在后续传播中造成隐私泄露。 所有被抽样的对话已进行去标识化处理,移除姓名、账号、密码等个人身份信息,并将数据隔离存储于受法律保全保护的独立系统中。仅限OpenAI法律与安全团队在必要时访问,且需接受审计。《纽约时报》的外部律师及技术顾问可在严格协议约束下查看数据,但不得复制、传播或用于其他用途。 OpenAI重申,该请求与GDPR等国际隐私法规精神相悖,其广泛性与非必要性已构成对用户权利的威胁。公司正积极通过法律途径挑战该命令,并承诺持续向用户通报进展。在人工智能深度融入日常生活的今天,保护用户对话的私密性,不仅是技术责任,更是对信任的坚守。

الروابط ذات الصلة

抵制《纽约时报》对用户隐私的侵犯 我们始终将信任、安全与隐私置于产品与决策的核心。每周有8亿人使用ChatGPT进行思考、学习与创作,他们将最私密的对话、文件、凭证、记忆、搜索记录、支付信息,乃至代表他们行动的AI代理,托付给我们。这些数据是您数字生活中的敏感部分,我们视其为责任重大的资产,并正构建与之匹配的隐私与安全防护体系。 今天,这一责任正面临严峻考验。《纽约时报》要求我们交出2000万条私人ChatGPT对话,声称可能从中发现用户试图绕过其付费墙的证据。这一请求无视长期坚持的隐私原则,违背基本安全实践,更将迫使我们交出数千万条与《纽约时报》对OpenAI的无端诉讼完全无关的私密对话。 这并非首次。此前,《泰晤士报》曾试图剥夺用户删除聊天记录的权利,我们坚决抗争并成功恢复了这一功能。随后,他们要求获取14亿条私人对话,我们再次依法予以拒绝。如今,他们再次提出类似要求——我们仍将坚决反对。 您的私人对话属于您,不应成为在线内容访问争议中的抵押品。我们尊重独立而强大的新闻业,并与众多出版机构和新闻团队保持合作。然而,《纽约时报》此次行为背离了新闻业捍卫隐私的传统,因此我们已向法院申请驳回该请求。 我们正加速推进安全与隐私路线图,以强化对您数据的保护。作为全球最受关注的组织之一,OpenAI投入大量资源构建系统,防范从有组织犯罪到国家支持情报机构等各类威胁对您数据的非法访问。 但若《纽约时报》的要求被批准,我们将被迫将正在保护的数据——您的数据——交予第三方,包括其律师与付费顾问。我们正在开发高级安全功能,包括客户端加密,确保您的对话仅对您本人可访问,连OpenAI也无法读取。我们还将建立全自动化系统,仅在涉及生命威胁、严重伤害或重大网络安全风险时,由经过严格审查的少数人工团队介入审查。这些功能正在积极开发,我们将在近期向公众披露更多细节。 随着人工智能深入生活,隐私与安全必须更加强大。我们致力于一个未来:在那里,您最私密的AI对话真正安全、可靠且完全私密。 —— Dane Stuckey,OpenAI首席信息安全官 常见问题解答: 为何《纽约时报》提出此要求? 《纽约时报》正在起诉OpenAI。作为诉讼的一部分,他们请求法院强制我们交出2000万条用户对话,用以寻找用户绕过其付费墙的证据。我们认为这是过度且无关的请求,将严重威胁用户隐私,却无助于解决案件核心问题。我们已提出反对。 这一阶段的法律程序如何形成? 《泰晤士报》律师辩称,另一家AI公司曾在无关案件中交出500万条用户对话,因此他们也应被允许。我们强烈反对这一类比,认为其与本案无关,将继续依法申诉。 我们是否提供过替代方案? 是的。我们提出多种隐私保护选项,包括:仅搜索包含《纽约时报》文章内容的对话样本,或对用户使用ChatGPT的方式进行分类分析。这些方案均被《纽约时报》拒绝。 《纽约时报》是否负有保密义务? 是的。目前,法律要求《纽约时报》不得在法庭程序之外公开任何数据。但若其试图通过其他方式传播或公开这些内容,我们将全力阻止。 最初请求范围更广。他们曾要求14亿条对话,我们通过法律程序成功限制。这表明其请求并非审慎或必要。 这2000万条对话如何选定? 从2022年12月至2024年11月期间,随机抽取了2000万条消费者ChatGPT对话。此时间范围外的对话不受影响。 我的数据是否可能受影响? 仅限上述时间段内、在消费者版ChatGPT中生成的对话可能被纳入抽样。Business客户(包括ChatGPT Enterprise、Edu、Team及API用户)不受影响。 我们如何保护您的个人信息? 所有受影响的对话将进行去标识化处理,移除或“清除”个人身份信息(PII)及其他敏感内容,如密码、身份证号等。 我们还将确保《纽约时报》仅能在严格法律协议约束下的安全环境中查看数据。 数据将如何存储? 被法院命令覆盖的数据已单独存放在一个受法律保全保护的系统中,仅限履行法律义务时访问。仅经审计的OpenAI法律与安全团队可有限访问。 谁可访问这些数据? 《纽约时报》聘请的外部律师及其技术顾问可在严格协议下访问。我们将确保其访问行为全程受控,且不得用于任何其他目的。 若《纽约时报》试图公开这些内容,我们将全力保护您的隐私。 这是否违反GDPR或您在欧洲等地区的隐私权? 我们正努力遵守所有法律,但《纽约时报》的要求与我们的隐私标准严重不符。我们正通过法律手段挑战其请求。同时,我们已采取额外措施,如去标识化和PII清除,以最大限度保护您。 是否可随时获取更新? 是的。我们承诺保持透明,将及时向您通报进展,包括法院命令的任何变更及其对您数据的影响。 | القصص الشائعة | HyperAI