Command Palette

Search for a command to run...

基于能量的 Transformer(EBTs)

日期

3 个月前

基于能量的 Transformer(Energy-Based Transformers,简称 EBTs)是由弗吉尼亚大学团队于 2025 年 7 月 2 日提出的一类新的基于能量的模型,使其能为每个输入和候选预测对分配能量值,并通过基于梯度下降的能量最小化直至收敛来实现预测。相关论文成果为「Energy-Based Transformers are Scalable Learners and Thinkers」。

在离散模态和连续模态任务中,EBTs 在训练阶段的扩展速度比当前主流的 Transformer++ 方法更快,在数据量、批量大小、参数数量、 FLOPs 和模型深度等多个维度上的扩展率最高提升了 35% 。在预训练性能相同甚至更差的情况下,EBTs 在大多数下游任务上仍优于现有模型,这表明 EBTs 比现有方法具有更好的泛化能力。

EBTs 是一种极具前景的新范式,能够同时扩展模型的学习能力和思考能力。

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于能量的 Transformer(EBTs) | 百科 | HyperAI超神经