HyperAIHyperAI
Back to Headlines

Hochschule RUC: 39 Arbeiten in Top-Konferenz NeurIPS 2025 angenommen

vor einem Monat

中国人民大学高瓴人工智能学院在2025年NeurIPS国际学术会议中取得重大突破,共39篇论文被录用,其中37篇进入主会场(Main Track),包含2篇口头报告(Oral),另有2篇入选数据集与基准测试赛道(Datasets and Benchmarks Track)。NeurIPS作为机器学习三大顶级会议之一,其论文录用率通常低于25%,此次高瓴学院的成果彰显了其在人工智能前沿研究领域的强劲实力。本届会议将于2025年12月在美国圣地亚哥与墨西哥城同步举行。 在主会场论文中,多篇研究聚焦大模型推理、生成机制与高效训练范式。例如,MokA提出一种多模态低秩适配方法,通过解耦单模态与跨模态适应,显著提升多模态大模型(MLLMs)微调效率;Large Language Diffusion Models(LLaDA)挑战“语言建模依赖自回归”的范式,首次实现基于扩散模型的大规模语言建模,性能媲美自回归模型,并在上下文学习与指令遵循任务中表现优异;Think or Not? 从信息论视角提出“信息偏差”与“信息增益”度量,设计自适应推理策略,使QwQ-32B模型在保持准确率的同时减少近51%的token消耗。此外,WebThinker构建具备深度研究能力的智能体系统,实现“思考—搜索—写作”一体化,显著提升复杂推理与科学报告生成能力;FlexWorld则通过视频到视频扩散模型与渐进式3D生成,实现从单图生成支持360°自由视角的高质量3D场景,为虚拟现实内容创作提供新路径。 在模型效率与架构优化方面,UniGist提出序列级长上下文压缩框架,通过Gist Token与稀疏注意力内核,实现高效且自适应的上下文处理;MoORE提出基于SVD分解的模型MoE化策略,有效缓解多任务适配中的冲突与遗忘问题;Scaling Diffusion Transformers via μP将最大更新参数化方法推广至扩散Transformer,实现超参数的高效迁移,使模型扩展成本大幅降低。在生成建模与科学计算领域,MOF-BFN基于贝叶斯流网络实现金属有机框架(MOFs)结构的精准预测;AniDS提出各向异性去噪框架,显著提升分子力场学习精度;GeoMix则通过几何等变网络建模电解质体系,为能源材料设计提供新范式。 在机制设计与评估方法上,HawkBench构建首个分层式RAG评估基准,系统评估模型在多样化信息需求下的韧性;ICPC-Eval为竞赛级编程能力提供真实场景测试,引入Refine@K指标以衡量模型反思能力;MemSim提出贝叶斯仿真器,自动构建大模型个人助理的记忆评估数据集。此外,KPI与TransDF分别针对缺失数据插补与时间序列预测中的模型错设与标签相关性问题,提出双层优化与变换对齐框架,显著提升泛化性能。 总体来看,高瓴人工智能学院在2025年NeurIPS的成果覆盖模型架构、推理机制、生成建模、效率优化、科学计算与评估体系等多个方向,展现出强大的原创性与系统性研究能力。这些工作不仅推动了人工智能理论的发展,也为大模型在真实场景中的可靠部署提供了关键技术支撑。业内专家指出,此次高瓴学院的集中突破标志着中国高校在AI顶会研究中已具备与国际顶尖机构比肩的创新能力,尤其在多模态、高效推理与可解释性等方向形成鲜明特色,未来有望持续引领相关技术演进。

Related Links

中国人民大学高瓴人工智能学院新闻公告