HyperAI超神经
Back to Headlines

诺姆·乔姆斯基:ChatGPT 能否超越人类智能与道德判断力的缺失

4 days ago

世界知名语言学家诺姆·乔姆斯基在接受C.J. 波利科罗尼欧采访时,对ChatGPT等人工智能技术的应用及其潜在风险进行了深入探讨。乔姆斯基指出,尽管人工智能在近年来取得了巨大进展,但在理解人类语言和认知方面仍然存在根本性缺陷。 乔姆斯基认为,人工智能的起源可以追溯到1950年代,当时的研究者将其视作一门科学,旨在利用数学理论和计算技术推进对人类智能和其他生物认知能力的理解。然而,在后续的发展中,这种科学取向逐渐让位于工程导向,即开发出能够在特定领域超越人类表现的程序工具。 对于“机器是否会变得比人类更聪明”的问题,乔姆斯基的回答是肯定的,但这里的“聪明”主要指的是表现上的超越,而非真正的理解。例如,笔记本电脑中的计算器早已在某些任务上超过了人类的能力,因为它们不受时间和记忆的限制。同样,国际象棋这样封闭的任务,早在1950年代就预料到有一天程序将会打败国际象棋大师。因此,IBM在后来实现这一目标时,更多的是一种公关展示,而非科学突破。 乔姆斯基进一步讨论了当前大型语言模型(LLM)的局限性。这些模型通过扫描大量数据来生成类似人类的对话,但由于其设计原理,无法揭示真正的人类语言理解和学习机制。他说,即使数据量再增加,参数再多,也无法改变这种基本缺陷。这是因为这些系统在处理所有语言时都是一样的效率,无论是人类儿童可以轻松掌握的语言,还是他们根本无法学习的“不可能语言”。乔姆斯基用昆虫导航的例子来说明这一点:虽然蚂蚁的大脑非常小,但它们的导航能力远超人类,这归功于其独特的生物特质,而不是单纯的数据分析。 他还提到了遗传学、分子生物学和进化论的例子,强调科学研究中样本的选择不必覆盖所有可能的情况,而只关注能够提供深入洞察的现象。相比之下,如果仅依赖LLM收集的大量数据,而不考虑内在的生物基础,则无法获得真正的理解。 对于当前AI技术是否对人类构成威胁的问题,乔姆斯基表达了担忧。他认为,虽然AI在某些领域的应用确实带来了便利,但也可能产生严重的负面影响。特别是ChatGPT等聊天机器人,由于缺乏道德判断能力,可能会成为散布虚假信息、诽谤甚至误导公众的工具。此外,将某些决策过程完全自动化,如医疗护理和导弹防御系统的评估,可能导致灾难性的后果。 他提到,数万名AI研究人员最近呼吁暂停AI的开发,以评估潜在的风险。乔姆斯基同意这种担忧,但也对监管的有效性表示怀疑。他认为,虽然尝试控制这些风险是有必要的,恶意行为者仍然有可能找到规避的方法。他强调,科学追求的是理解,而不是单纯的表现;AI工程项目的有用性和危害性需要在社会实践中不断权衡。 总的来说,乔姆斯基的观点提醒我们,虽然AI在技术层面上有巨大的潜力,但其伦理和社会影响需要引起高度重视。他呼吁回归科学的基本原则,重视理解而不是追求表象上的成功。此外,他也指出,人类独有的语言和思维能力,使我们在众多物种中独一无二,这些能力应当是科学研究的重点。

Related Links