HyperAI
HyperAI
主区域
首页
GPU
控制台
文档
价格
Pulse
报道
资源
论文
教程
数据集
百科
基准测试
SOTA
大语言模型(LLM)
GPU 排行榜
社区
活动
开源
实用工具
搜索
关于
服务条款
隐私政策
中文
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
登录
HyperAI
论文
无需流泪的Transformer:改进自注意力机制的归一化方法
6 个月前
Transformer
模型训练
神经网络
方法/架构
摘要
论文
基准测试
资源
yangyucheng000/University/tree/main/model-1/persimmon
mindspore
tnq177/transformers_without_tears
官方
pytorch
JunnYu/x-transformers-paddle
jax
MindCode-4/code-2/tree/main/persimmon
mindspore
facebookresearch/xformers
pytorch
HyperAI
HyperAI
主区域
首页
GPU
控制台
文档
价格
Pulse
报道
资源
论文
教程
数据集
百科
基准测试
SOTA
大语言模型(LLM)
GPU 排行榜
社区
活动
开源
实用工具
搜索
关于
服务条款
隐私政策
中文
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
登录
HyperAI
论文
无需流泪的Transformer:改进自注意力机制的归一化方法
6 个月前
Transformer
模型训练
神经网络
方法/架构
摘要
论文
基准测试
资源
yangyucheng000/University/tree/main/model-1/persimmon
mindspore
tnq177/transformers_without_tears
官方
pytorch
JunnYu/x-transformers-paddle
jax
MindCode-4/code-2/tree/main/persimmon
mindspore
facebookresearch/xformers
pytorch
3
3
134
134
10
10
2
2
10.3k
10.3k