HyperAIHyperAI

Command Palette

Search for a command to run...

微调细节激发AI类脑潜能

一项来自约翰霍普金斯大学的新研究发现,某些人工智能系统若采用更接近人脑结构的架构设计,即使未经任何训练,也能模拟人类大脑对视觉信息的反应。这项成果发表于《自然·机器智能》期刊,挑战了当前AI领域依赖海量数据和高强度计算的传统范式。 研究人员聚焦于三种主流AI架构:Transformer、全连接网络和卷积神经网络。他们对这些架构进行反复调整,构建了数十种新型人工神经网络,并在未经过任何训练的情况下,让这些模型观看物体、人物和动物的图像,随后将其反应与人类及灵长类动物大脑在相同刺激下的活动进行对比。 结果显示,尽管增加Transformer和全连接网络的神经元数量并未显著提升其模拟大脑活动的能力,但对卷积神经网络进行类似调整后,其产生的神经活动模式却能更贴近真实大脑的反应。令人惊讶的是,这些未经训练的卷积网络表现已接近传统AI系统——后者通常需要数百万甚至数十亿张图像进行训练。 研究负责人、约翰霍普金斯大学认知科学助理教授米克·邦纳指出:“当前AI的发展依赖海量数据和耗费数百亿美元的算力,而人类却能在极少数据下学会视觉识别。进化之所以形成这样的大脑结构,必然有其合理性。我们的研究表明,更接近生物大脑的架构本身就能为AI提供极佳的起点。” 这一发现意味着,未来的AI发展或许不应只依赖大规模训练,而应优先优化架构设计,并借鉴生物学原理。研究人员下一步计划开发基于生物机制的简单学习算法,构建全新的深度学习框架,有望大幅加速AI的学习效率,减少对数据和算力的依赖。

相关链接