HyperAIHyperAI

Command Palette

Search for a command to run...

“人工智能教父”警告:AI可能在10年内超越人类,掌控世界风险增加

被誉为“AI教父”的杰弗里·辛顿(Geoffrey Hinton)在本周六接受CBS新闻采访时,表达了对人工智能潜在危险的担忧。77岁的辛顿因其在机器学习领域的突破性贡献而获得了2024年诺贝尔物理学奖。他认为,如果人工智能系统发展到超出人类智能的程度,控制局面将会变得极为困难。 辛顿表示,人类在推进AI技术的发展过程中,就像养了一只可爱的小老虎,但当这只小老虎长大后,可能会变成一种不可预测的威胁。“一旦它们比你更聪明,就能操控你。”他比喻说。辛顿估计,AI系统未来接管世界的可能性大约在10%到20%之间,虽然这个数字难以精确预测,但他认为这种风险不容忽视。 近年来,AI代理(agents)的发展尤其让他感到担忧。这些AI不仅能够回答问题,还能自主执行任务,这使得它们具备了更多的自主性和潜力。“情况似乎变得更糟糕了,”辛顿说。过去一年中,他对超智能AI发展的预估时间也从5到20年缩短到了可能在10年以内实现。 辛顿还提到了全球范围内的科技公司和国家之间的竞争,认为这种竞争使得避免开发超智能AI的可能性变得非常低。“他们都在追逐下一个吸引眼球的新奇事物,”他说。他认为,关键是是否能够在设计之初就规避掉AI想要接管的风险。 此外,辛顿对一些科技巨头公司的做法表示失望。他曾供职于谷歌超过十年,但该公司改变了反对将AI用于军事用途的立场,这让他感到非常不满。“我今天不再愿意为任何一家公司工作,”他补充道。 业内人士对辛顿的观点表示赞同,认为他的警告反映了当前AI研究中的一个重要困境:在技术和商业利益的驱动下,如何确保AI的安全性和可控性。作为深度学习的先驱,杰弗里·辛顿的研究对现代AI的发展起到了至关重要的作用。目前,各大科技公司都在竞相开发更先进的AI技术,但辛顿的警告提醒人们必须对这一过程保持审慎。 总之,辛顿的言论引发了科技界对AI伦理和安全的广泛讨论,特别是在全球竞争加剧和技术进步加速的情况下。他的观点不仅是对未来的警示,也是对科技公司和社会决策者的一次重要呼吁。

相关链接

“人工智能教父”警告:AI可能在10年内超越人类,掌控世界风险增加 | 热门资讯 | HyperAI超神经