「OpenAI Files」揭示 AI 竞赛中的监管缺失与伦理挑战
OpenAI的首席执行官萨姆·阿尔特曼曾表示,人类距离实现通用人工智能(AGI)可能只有几年的时间。若果真如此,那么人类理应了解并参与决定那些在这一影响深远的领域工作的人及机制。这是一项目名为“OpenAI Files”的档案项目的宗旨。“OpenAI Files”由Midas项目和科技监管项目两个非营利组织发起,该项目收集了关于OpenAI治理实践、领导层诚信和企业文化的一系列有文档支持的关注点。文件不仅提高了这些议题的透明度,还提出了前进的道路,强调责任治理、道德领导和利益共享。 网站上的“变革愿景”声明指出:“治理结构和领导层的正直应该反映这一使命的重要性和严峻性。引领AGI竞赛的公司必须接受高标准,也必须对自己提出高标准。” 迄今为止,这场向AI主导地位冲刺的过程中,出现了资源无度扩展的现象,OpenAI等公司为了训练模型不择手段地获取大量数据,并建立了可能导致电力中断和居民电费增加的大规模数据中心。此外,在投资者压力下,这些公司将没有完善安全保障的产品推向市场,以尽快盈利。 “OpenAI Files”披露了一系列问题,包括OpenAI早期作为一个非营利组织时,曾设定了投资者利润上限为100倍,旨在确保任何从实现AGI中获得的收益都归于全人类。但如今,OpenAI已经决定取消这一上限,原因是希望满足那些对投资设置了前提条件的投资者。这一变化引起了质疑:OpenAI是否真的坚持其初衷,为全人类谋福利? 文件还揭露了OpenAI的安全评估过程过于草率,“鲁莽的企业文化”,以及董事会成员和阿尔特曼个人潜在的利益冲突。其中提到阿尔特曼自己投资的一些初创公司与OpenAI存在业务重叠。2023年,一些高级员工试图将其赶下台,理由是他“欺骗行为和混乱管理”。前首席科学家伊利亚·苏茨克弗在当时甚至表示:“我不认为萨姆应该是掌握AGI决定权的人。” “OpenAI Files”带来的问题和提出的解决方案提醒我们,巨大的权力集中在少数人手中,这缺乏透明度和有效的监督。文件提供了了解这一“黑箱”的机会,并努力将讨论从不可避免转向问责制。