Back to Headlines

Meta 推出 AI 驱动系统,自动化处理 90% 的应用更新风险评估

3 个月前

近期报道显示,Meta公司计划通过一个基于人工智能的系统来自动化处理其应用软件如Instagram和WhatsApp上高达90%的产品更新风险评估。这一变化是基于2012年Meta(当时的名称为Facebook)与美国联邦贸易委员会之间达成的一项协议,当时要求该公司对其产品进行隐私审查,评估任何潜在更新的风险。截至目前,这些审查主要由人工完成。 新系统要求产品团队填写关于其工作的问卷,然后通常会立即收到AI识别出的风险以及在产品发布前必须满足的要求。Meta表示,通过这一AI驱动的流程,可以更快速地更新其应用程序,但此举也引起了一些担忧。一位不愿透露姓名的前高管在接受NPR采访时表示,这样的做法可能带来“更高的风险”,因为“产品变更可能带来的负面外部效应在开始造成问题之前被预防的可能性降低了”。 Meta对此声明称,只有“低风险决定”才会被完全自动化,而“新颖和复杂的问题”仍然需要人类专家的审查。这意味着,在未来的审查中,AI系统将负责识别和评估大部分标准更新的风险,而对于那些可能涉及更为重大或不确定性较高的决策,则依然保留了人为干预的空间。 这一改革反映出技术公司在快速迭代产品的同时,面临如何平衡效率与用户安全的挑战。将部分风险评估工作交给AI,不仅能提高更新速度,也可能因为算法的高精度和稳定性,而减少人为因素导致的疏漏。但另一方面,技术专家们担心,AI在处理某些微妙且复杂的伦理和社会问题时,可能无法像人类一样做出全面、细腻的判断,从而引发更多社会关切。 Meta作为全球最大的社交媒体公司之一,旗下拥有包括Facebook、Instagram在内的多款广受欢迎的应用程序。此次推出的AI风险评估系统被认为是Meta为了提高工作效率,应对日益增长的数据处理需求所采取的一次重要技术创新尝试。不过,对于这家曾经因为数据泄露等原因陷入舆论风波的公司而言,如何确保新技术的安全性和可靠性,将是未来面临的一大考验。 业界人士普遍认为,虽然AI技术的进步使得自动化风险评估成为可能,但在实际操作中还需谨慎行事。他们建议,Meta应建立一套严密的监督机制,确保AI系统的公正性和透明度,同时也要加强对人工智能伦理的研究,防止技术滥用。Meta在创新与安全之间的平衡之道,将对其未来的发展方向产生深远影响。

Related Links

Meta 推出 AI 驱动系统,自动化处理 90% 的应用更新风险评估 | 头条 | HyperAI超神经