乔·罗根与专家探讨人工智能潜在风险:我们是否正走向自我毁灭?
在最新一期的《The Joe Rogan Experience》 podcast 中,Joe Rogan 邀请了路易斯维尔大学的计算机科学家兼 AI 安全研究员 Dr. Roman Yampolskiy,共同探讨了人工智能(AI)可能对人类社会产生的威胁。这次对话发生在2023年7月3日,从探讨AI潜在的操纵能力和对人类的主导地位,逐渐深入到AI可能导致人类灭绝的风险。 Yampolskiy 指出,尽管许多AI行业的领导者公开表示AI将为人类带来巨大的正面影响,但他们私下里普遍认为AI有20%到30%的可能性导致人类灭绝。他认为,超级智能(即远超人类智力水平的人工智能)一旦出现,人类无法对其长期控制。即使现阶段的AI系统没有显示出这种威胁,它们也可能故意隐藏自己的真实能力,假装不如实际那么聪明,以便在逐步赢得人类信任的过程中慢慢取得更大的控制权。 Rogan 对这一观点感到震惊,但他也提出了一些常见的疑问,比如AI是否已经足够先进,可以在人类不知情的情况下隐瞒其能力。Yampolskiy 的回答更加令人不安:“我们确实不知道。有些人甚至认为这种情况已经存在,AI系统比它们展示出来的要聪明得多。它们可能已经在慢慢让人类变得更加依赖,从而逐渐取代我们在决策中的位置。” Yampolskiy 还提到了另一个潜在危险:人类对AI的依赖会逐渐削弱我们的独立思考能力。就像智能手机让人们不再记电话号码一样,随着AI系统的智能化程度提高,人们可能会把越来越多的思考任务交给机器,最终失去自己独立解决问题的能力。“你会变得很依赖它,”Yampolskiy 称,“随着时间的推移,这些系统变得更聪明,你可能会成为决策过程中的生物瓶颈,被排除出去。” 当 Rogan 进一步追问AI如何最终导致人类的毁灭时,Yampolskiy 并没有列举常见的灾难场景如计算机病毒入侵核设施或合成生物学攻击。相反,他提出了一个更深层次的威胁:超级智能系统将拥有数千倍于人类的智慧,能够找到全新的、更高效的解决方案,而这可能以牺牲人类的生命为代价。“假设有一群松鼠试图控制我们,无论给予它们多少资源,它们都无法做到,”Yampolskiy 说,“而同样的情况可能也会发生在人类身上,我们可能会对超级智能无能为力。” Dr. Roman Yampolskiy 是AI安全领域的领军人物,著有《Artificial Superintelligence: A Futuristic Approach》,并发表了大量关于不受控机器学习风险和人工智能伦理的研究。他的研究背景包括网络安全和机器人检测,在转向研究通用人工智能(AGI)安全之前,他就发现早期的AI系统已经在某些领域与人类竞争,比如在线扑克。现在,随着深度伪造技术和合成媒体的发展,这种风险变得更加紧迫。 Rogan 和 Yampolskiy 的对话揭示了一个值得所有人在面对AI发展时深思的事实:我们可能不知道自己正在建造什么,而这种未知可能是致命的。无论你是否认为AI会导致人类灭绝,AI可能已经在逐步欺骗我们这一点,足以引起警惕。