Scale AI 使用公开 Google 文档管理机密项目,引发重大安全担忧
人工智能初创公司Scale AI接受了Meta的143亿美元投资,成为科技界的焦点。然而,近日Business Insider的一项调查揭露,该公司在数据安全方面存在严重漏洞,引发了客户对项目的信任危机。调查发现,Scale AI经常使用公开的Google Docs来记录和管理涉及高价值客户的项目,而这些文件中包含有“机密”标注的信息,任何人都可以通过链接访问。 具体来说,Business Insider发现了一系列公开可访问的Google Doc文件,这些文件涵盖了Scale AI与大型科技公司合作的数千页项目文档。其中涉及Google如何使用ChatGPT改进其聊天机器人Bard,xAI(埃隆·马斯克旗下的公司)关于多个生成式AI项目的详细信息,以及Meta关于训练其聊天机器人使其更具情感互动能力和处理敏感话题的安全标准。这些文档不仅泄露了项目的核心细节,还暴露了承包商的个人信息,包括他们的姓名、私人邮箱地址,甚至是否有作弊嫌疑等敏感数据。 面对这些安全漏洞,多个大科技公司如Google、OpenAI和xAI暂停了与Scale AI的合作。Scale AI的一位发言人称他们对此事非常重视,正在进行彻底调查,并已禁止用户通过公共链接分享内部文档。公司强调将继续加强技术与政策保障措施,确保客户数据的安全。 业内专家对这一问题发表了看法。Columbia大学网络安全讲师Joseph Steinberg指出,使用公开Google Docs确实存在极大风险,尤其是在面临社会工程攻击时。社会工程攻击是指黑客通过伪装为公司员工或承包商来获取内部信息的一种手法。另一位网络安全专家Stephanie Kurtz认为,开放文档被恶意修改的可能性也是一个不可忽视的问题,例如插入恶意链接或其他破坏性的内容。这两位专家都建议公司应加强对文档访问权限的管理。 值得一提的是,尽管Scale AI声称会强化其安全措施,但许多当前和前任承包商表示,这种操作方式早已在公司内部广泛使用。他们认为,这种方式对于管理庞大的自由职业者团队十分高效,但如果处理不当,会极大地影响数据安全。此外,一些承包商反映他们在离职后仍能访问旧项目,这些项目有时还会更新来自客户的训练请求,增加了数据泄露的风险。 Scale AI成立于2016年,由Alexandr Wang共同创立。该公司以其强大的数据标注服务和高质量的AI训练数据而闻名,客户涵盖多家顶尖科技企业。此次安全事件对公司的声誉和技术能力提出了严重挑战,也引发了外界对其是否真正具备安全合规能力的质疑。Meta作为投资方,在投资前是否详细了解了这些问题,成为一个重要的关注点。 业内普遍认为,对于成长中的科技公司而言,平衡发展速度与数据安全是一个巨大的挑战。然而,在处理敏感信息时,严格的安全措施必不可少,否则可能会导致严重的法律和商业后果。未来,Scale AI需要在确保效率的同时,进一步强化其数据安全管理机制,以重新赢得客户的信任。