HyperAI超神经
Back to Headlines

AI为何难以全面理解“花朵”:缺乏感官体验限制了概念的深度

3 days ago

一项新的研究表明,尽管人工智能(AI)拥有强大的计算能力和大量的训练数据,但像ChatGPT这样的大型语言模型(LLM)仍然无法像人类一样完整地理解“花”这一概念。这项研究由俄亥俄州立大学心理学系的博士后研究员Qihui Xu领导,并发表在《自然人类行为》期刊上。 人类与AI在知识表示上的主要区别在于,人类的理解不仅仅基于语言,还包括感官体验和身体动作。Xu指出:“大型语言模型无法闻到玫瑰的香味,触摸雏菊的花瓣,或者走在野生花丛中。”这种缺乏实际体验的情况使得AI在理解一些具体事物时显得不足。 为了验证这一点,Xu和她的同事比较了人类和LLM对于4,442个词汇的知识表示,涵盖了从“花”到“幽默”等各种词义。他们测试了OpenAI的GPT-3.5和GPT-4以及Google的PaLM和Gemini两个最先进的LLM家族。测试包括两个方面:一个是Glasgow标准,评估单词在多个维度上的评分,比如情感唤起、具象化和形象化;另一个是Lancaster标准,考察单词的概念如何与感官信息(如触觉、听觉、嗅觉和视觉)和运动信息(涉及身体的动作)相关联。 结果显示,对于那些不涉及感官和运动体验的词汇,LLM的表现与人类非常接近。然而,当词汇涉及到人类通过视觉、味觉或身体互动来感知的事物时,AI的表现显著落后于人类。例如,在Lancaster标准下,人类在评价“花”时会考虑其香味、触感和情感唤起等多方面的体验,而不仅仅是文字表述。曲会强调:“从花的浓郁香气、触摸花瓣时的丝绸感,到它所引发的深刻喜悦,人类对‘花’的表征结合了这些不同的经验和互动。” 尽管AI能够通过大量文本数据学习一些人类概念,尤其是在这些概念不涉及感官体验和身体动作的情况下,但这种学习效率低下。曲会解释说:“即使消费数十倍于一个人终其一生接触到的文本,AI仍无法完全捕捉某些人类概念。”这说明,人类的经验比单纯的词汇更丰富多样。 不过,研究也表明,接受过图像训练的LLM在视觉相关的概念上表现优于仅依赖文本的模型。未来,随着传感器数据和机器人技术的发展,LLM可能具备更全面的理解能力,从而更好地参与物理世界的推理和行动。

Related Links