大型语言模型:人类制造的“黑箱”如何处理语言?
大型语言模型(LLMs)在生成人类相似文本和回答问题方面表现得越来越出色,但这些模型是否真正理解它们所生成的语言仍然是一大争议点。与人类不同,LLMs是一个“黑箱”,它们可以预测词语顺序并做出决策,却无法解释这些决策背后的原因。 布朗大学的埃莉·帕夫利克教授领导着“语言理解和表示实验室”,致力于探究LLMs如何处理语言及其过程与人类有何异同。帕夫利克指出,计算机科学家尽管编写了创建这些模型的代码,但并不能完全理解模型的内部运作机制。她通过一个比喻来解释这一现象:就像烤蛋糕的人只知道食材和步骤,但未必理解每一步背后的化学反应一样,开发LLMs的科学家也仅对基本原理有所了解,而无法精确追踪模型产生的每一个行为或决策的具体原因。 帕夫利克认为,LLMs在处理语言时主要依赖于概率模型和线性代数等数学方法,通过学习大量数据来预测下一个词出现的可能性。虽然这一过程能够生成看似合理的回答,但模型本身并不具备人类意义上的“理解”。她提到,人类在日常交流中也经常使用模糊的概念,如“理解”、“思考”等,而LLMs迫使我们更精确地定义这些概念。这不仅是科学上的进步,也是语言学上的突破。 帕夫利克还探讨了LLMs的学习和适应能力。训练完成后,模型会将权重存储在文件中,通过加载这些权重来进行对话。虽然某些版本的LLMs可以在对话过程中记住用户提供的信息,但这并不意味着模型具备真正的学习能力。这些适应性学习机制可以通过多种方式实现,有些更容易重置,有些则很难恢复到初始状态。 对于AI是否会削弱人类创造力的问题,帕夫利克持乐观态度。她认为,即使承认人类的大脑活动可以用数学模型来描述,这也不应贬低人类创作的作品的价值。同样,AI生成的文字和艺术作品也可以从艺术而非技术的角度去评价。她的实验室目前正在研究如何将这种多学科视角结合起来,更好地理解LLMs的运作机制及其与人脑的关系。 此外,帕夫利克提到了一些潜在的风险,如大规模安全漏洞、信息真假难辨等问题,可能会影响社会信任。但她认为,总的来说,LLMs带来的潜在价值远远超过了风险。她表示,能够在职业生涯中研究这些哲学和科学问题是一种巨大的荣幸,因为这些问题通常只有在深夜和室友讨论时才会遇到,而现在却成为了她的工作内容之一。 业内专家普遍认为,布朗大学计算机科学家埃莉·帕夫利克的工作不仅推动了对LLMs的理解,也为未来AI技术的发展提供了宝贵的视角。帕夫利克的跨学科研究为科学和哲学之间的桥梁搭建了一个新的平台,帮助人们更科学地探讨智能的本质问题。她的实验室在自然语言处理领域的贡献使得人类对自身语言能力有了更深的认识,同时也在探索如何使AI更好地服务于人类社会。