HyperAI超神经
Back to Headlines

研究揭示:人类关注意义,AI偏向视觉特征,二者物体感知方式存在显著差异

16 hours ago

人类和人工智能(AI)在识别物体时有着不同的侧重点:前者更注重物体的意义,而后者则更多地依赖于视觉特征。这一差异被称为“视觉偏差”,意味着即使AI在某些行为上与人类相似,其决策过程也可能完全不同,这直接影响了我们对AI系统的信任度。 研究人员来自马克斯·普朗克人类认知和脑科学研究所,其中包括弗洛里安·马赫纳和马丁·赫伯特等人,他们通过一项大规模的研究揭示了这一现象。研究团队收集了约500万条公开的人类判断数据,涉及1,854种不同的物体图像。例如,参与者会被展示一张吉他、大象和椅子的图片,并被要求指出哪一个与其他两个不同。与此同时,研究团队让多个深度神经网络对相同的图像进行识别,收集了这些网络的相似性判断。 研究者们发现,在最初的观察中,深度神经网络所识别的关键特性似乎与人类非常接近。然而,经过更详细的对比分析,明显的差异逐渐显现。人类更倾向于根据物体的意义来做出判断,比如“这是什么”以及“我们知道关于它的一些背景信息”。相比之下,深度神经网络更多地依赖于视觉特性,如形状和颜色。 为了验证这些维度是否合理,科学家们使用了常见的神经网络解释技术。例如,如果一个维度包含了大量动物图像,它可能被称为“动物相关”维度。研究团队进行了多项严格的测试,包括检查网络使用的图像部分、生成符合特定维度的新图像以及操纵图像以去除某些维度。通过这些方法,他们确认了网络所识别的维度具有高度可解释性,但直接对比人类和网络的结果发现,网络只能近似地理解这些维度。例如,对于“动物相关”维度,许多动物图像并未被正确识别,同时一些非动物图像却被误认为属于该维度。 这项研究的重要性在于,它不仅揭示了人类和AI在处理信息时的根本差异,还为未来的研究提供了一种清晰的方法,可以直接比较人类与AI的决策方式。弗洛里安·马赫纳表示:“所有这些严格的测试都表明了非常可解释的维度,但标准技术无法发现人类和网络之间的细微差异。” 马丁·赫伯特补充说:“我们的研究方法有助于更好地理解AI如何解释世界,从而改进技术,同时为人类认知的发展提供宝贵的洞见。” 业内人士普遍认为,这一研究为理解AI和人类在感知和决策上的异同提供了新的视角。这项工作不仅有助于提高AI技术的可靠性和透明度,还可能推动认知科学领域的进一步研究。马克斯·普朗克人类认知和脑科学研究所是国际知名的科研机构,致力于探索人类大脑的工作原理和认知机制。

Related Links