HyperAI
HyperAI超神经
首页
算力平台
文档
资讯
论文
教程
数据集
百科
SOTA
LLM 模型天梯
GPU 天梯
顶会
开源项目
全站搜索
关于
服务条款
隐私政策
中文
HyperAI
HyperAI超神经
Toggle Sidebar
全站搜索…
⌘
K
Command Palette
Search for a command to run...
算力平台
首页
论文
论文
每日更新的前沿 AI 研究论文,助您把握人工智能最新动向
论文 | HyperAI超神经
ExGRPO:从经验中学习推理
Runzhe Zhan, Yafu Li, Zhi Wang, et al.
Self-Forcing++:迈向分钟级高质量视频生成
Justin Cui, Jie Wu, Ming Li, et al.
LongCodeZip:为Code LLM压缩长上下文
Yuling Shi, Yichun Qian, Hongyu Zhang, et al.
PIPer:通过在线强化学习实现设备端环境配置
Alexander Kovrigin, Aleksandra Eliseeva, Konstantin Grotov, et al.
多领域测试时扩展的奖励模型再思考
Dong Bok Lee, Seanie Lee, Sangwoo Park, et al.
背包强化学习:通过优化预算分配解锁LLM的探索能力
Ziniu Li, Congliang Chen, Tianyun Yang, et al.
GEM:面向智能体LLM的健身房
Zichen Liu, Anya Sims, Keyu Duan, et al.
VLA-RFT:基于世界模拟器中验证奖励的视觉-语言-动作强化微调
Hengtao Li, Pengxiang Ding, Runze Suo, et al.
DeepSearch:通过蒙特卡洛树搜索克服强化学习中可验证奖励的瓶颈
Fang Wu, Weihao Xuan, Heli Qi, et al.
OceanGym:水下具身Agent的基准环境
Yida Xue, Mingjun Mao, Xiangyuan Ru, et al.
TruthRL:通过强化学习激励LLM说真话
Zhepei Wei, Xiao Yang, Kai Sun, et al.
赢得剪枝赌局:一种面向高效监督微调的联合样本与token剪枝统一方法
Shaobo Wang, Jiaming Wang, Jiajun Zhang, et al.
龙之幼崽:Transformer与大脑模型之间的缺失环节
Adrian Kosowski, Przemysław Uznański, Jan Chorowski, et al.
Vision-Zero:通过策略性游戏化自对弈实现可扩展的VLM自我提升
Qinsi Wang, Bo Liu, Tianyi Zhou, et al.
MCPMark:用于压力测试现实且全面的MCP使用的基准
Zijian Wu, Xiangyan Liu, Xinyuan Zhang, et al.
可验证奖励下的LLM推理仅需随机策略评估
Haoran He, Yuxiao Ye, Qingpeng Cai, et al.
使用ToolUniverse实现AI科学家的民主化
Shanghua Gao, Richard Zhu, Pengwei Sui, et al.
推理何时才重要?一项关于推理对模型性能贡献的受控研究
Nicolas Boizard, Hippolyte Gisserot-Boukhlef, Kevin El-Haddad, et al.
多人博弈纳什偏好优化
Fang Wu, Xu Huang, Weihao Xuan, et al.
StableToken:一种抗噪声的语义语音Tokenize,用于增强语音LLM的鲁棒性
Yuhan Song, Linhao Zhang, Chuhan Wu, et al.
SLA:通过可微调稀疏线性注意力实现扩散Transformer中的稀疏性突破
Jintao Zhang, Haoxu Wang, Kai Jiang, et al.
SimpleFold:蛋白质折叠比你想象的更简单
Yuyang Wang, Jiarui Lu, Navdeep Jaitly, et al.
POINTS-Reader:面向文档转换的视觉-语言模型蒸馏-free适配
Yuan Liu, Zhongyin Zhao, Le Tian, et al.
可泛化的几何图像描述生成
Yue Xin, Wenyuan Wang, Rui Pan, et al.
基于强化学习的语言模型规划:理论视角下的优势与陷阱
Siwei Wang, Yifei Shen, Haoran Sun, et al.
语言模型Agent的赋能估计
Jinyeop Song, Jeff Gore, Max Kleiman-Weiner
语言模型可以在没有标量奖励的情况下从口头反馈中学习
Renjie Luo, Zichen Liu, Xiangyan Liu, et al.
语言模型的变分推理
Xiangxin Zhou, Zichen Liu, Haonan Wang, et al.
EPO:面向LLM Agent的熵正则化策略优化 强化学习
Xu Wujiang, Wentian Zhao, Zhenting Wang, et al.
MinerU2.5:一种用于高效高分辨率文档解析的解耦视觉-语言模型
Junbo Niu, Zheng Liu, Zhuangcheng Gu, et al.
分位数优势估计用于熵安全推理
Junkang Wu, Kexin Huang, Jiancan Wu, et al.
LongLive:实时交互式长视频生成
Shuai Yang, Wei Huang, Ruihang Chu, et al.
1
9
10
11
12
13
14
15
35