HyperAI超神经
Back to Headlines

NTT研究团队在ICML 2025发表12篇论文,突破AI和机器学习技术壁垒

3 days ago

NTT Research和NTT R&D的研究人员在2025年7月13日至19日于温哥华举行的第42届国际机器学习大会(ICML)上发表了12篇论文。ICML是人工智能领域重要的全球会议,涵盖机器视觉、计算生物学、语音识别和机器人技术等多个应用方向。 NTT Research的物理人工智能(PAI)小组提交了三篇关于大型语言模型(LLM)准确性、机器学习可解释性和循环神经网络(RNN)短期记忆机制的研究。首篇论文《变换器中的表示破碎:基于知识编辑的合成研究》揭示了知识编辑(KE)算法如何负向影响LLM的事实召回准确率和推理能力,并指出“表示破碎”现象对此负有责任。研究表明,KE会影响除目标实体之外的其他实体表示,从而破坏模型推断未知知识的能力。 第二篇论文《典型SAE:大型视觉模型中概念提取的自适应和稳定字典学习》发现了稀疏自动编码器(SAE)在机器学习可解释性方面的一个基本限制——严重不稳定性。研究人员提出了典型SAE及其变体放松典型SAE,显著提高了SAE的稳定性,使其成为更可靠的可解释性工具。 第三篇论文《RNN中短期记忆机制的动力学阶段》深入探讨了神经机制在短期记忆中的作用。该研究为短期记忆机制提供了新的见解,并提出了一些可以进一步验证的实验预测。 此外,NTT R&D实验室的研究人员共发表了八篇论文。其中一篇《便携式奖励调整:实现不同预训练模型之间的可复用微调》介绍了世界首个“便携式调整”技术,该技术能够减少在更新基础模型时需要重新训练特殊AI模型的需求,从而显著降低再培训成本,提高定制生成型AI的可持续性。 另一篇论文《合理标记放大:基于隐式贝叶斯推理的差分隐私上下文学习准确性改进》首次从理论上揭示了基于差分隐私(一种防止数据泄漏的方法)添加噪声为何会降低LLM的准确性。这种技术有望促进LLM在涉及个人用户相关数据领域(如医疗、政府和金融)的应用。 还有一篇论文《K2IE:内核方法为基础的内核强度估计器用于非齐次泊松过程》展示了在处理大规模数据集泊松过程时计算效率的重大提高,这些过程用于分析和预测社交媒体平台上的发帖模式到疾病爆发的时间和空间模式。 NTT R&D实验室的其他科研成果包括“线性模式连接多模型模置换对称性”这一关于模型融合的海报论文。此前的研究提出了利用神经网络固有的置换对称性来合并两个预训练模型的方法,而这项研究将此方法扩展到了同时合并三个或更多模型,结果显示,合并的模型性能随着合并模型数量的增加而提高。 业内专家普遍认为,NTT在ICML 2025上展示的技术创新和研究成果显示了该公司在推动人工智能领域的科学发展方面的领导力和贡献。NTT Research PAI小组组长Hidenori Tanaka强调,NTT致力于开发能够促进可持续发展、尊重人类自主性、确保公平性和开放性以及保护安全和隐私的AI技术。NTT研究团队的工作不仅在科学层面探索了AI的基础机制,还在实际应用中提出了诸多创新解决方案,推动了AI技术的发展和普及。 NTT是一家全球领先的技术和商业解决方案提供商,每年将30%的利润投入到研发中。NTT Research成立于2019年7月,总部位于硅谷的桑尼维尔,主要研究量子信息、神经科学、光子学、密码学和信息安全、医疗健康信息学以及人工智能等领域。公司的目标是通过基础研究和技术进步,推动高影响力的创新,为全球业务发展贡献力量。

Related Links