HyperAI
HyperAI
Principal
Accueil
GPU
Console
Docs
Tarifs
Pulse
Actualités
Ressources
Publications de recherche
Notebooks
Jeux de données
Wiki
Benchmarks
SOTA
Modèles LLM
Classement des GPU
Communauté
Événements
Utilitaires
Recherche
À propos
Conditions d’utilisation
Politique de confidentialité
Français
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
Se connecter
HyperAI
Papers
Fastformer : L'attention additive peut tout simplement suffire
il y a 6 mois
Transformer
Traitement Du Langage Naturel
Réseaux De Neurones
Approche/Framework
Traitement Du Langage Naturel
Tâche
Résumé
Paper
Benchmarks
Ressources
MindCode-4/code-7/tree/main/fastformer-additive
mindspore
MindSpore-scientific-2/code-12/tree/main/fastformer-additive
mindspore
nanzhaogang/contrib/tree/master/application/fastformer-additive-attention-can-b-all-you-need
mindspore
lucidrains/fast-transformer-pytorch
pytorch
MindCode-4/code-11/tree/main/fastformer-additive
mindspore
04RR/SOTA-Vision
pytorch
mtanghu/LEAP
pytorch
keonlee9420/Comprehensive-Transformer-TTS
pytorch
wuch15/Fastformer
Officiel
pytorch
ypeleg/Fastformer-Keras
tf
wilile26811249/Fastformer-PyTorch
pytorch
Rishit-dagli/Fast-Transformer
tf
rainyBJ/Fastformer-Paddle
paddle
HyperAI
HyperAI
Principal
Accueil
GPU
Console
Docs
Tarifs
Pulse
Actualités
Ressources
Publications de recherche
Notebooks
Jeux de données
Wiki
Benchmarks
SOTA
Modèles LLM
Classement des GPU
Communauté
Événements
Utilitaires
Recherche
À propos
Conditions d’utilisation
Politique de confidentialité
Français
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
Se connecter
HyperAI
Papers
Fastformer : L'attention additive peut tout simplement suffire
il y a 6 mois
Transformer
Traitement Du Langage Naturel
Réseaux De Neurones
Approche/Framework
Traitement Du Langage Naturel
Tâche
Résumé
Paper
Benchmarks
Ressources
MindCode-4/code-7/tree/main/fastformer-additive
mindspore
MindSpore-scientific-2/code-12/tree/main/fastformer-additive
mindspore
nanzhaogang/contrib/tree/master/application/fastformer-additive-attention-can-b-all-you-need
mindspore
lucidrains/fast-transformer-pytorch
pytorch
MindCode-4/code-11/tree/main/fastformer-additive
mindspore
04RR/SOTA-Vision
pytorch
mtanghu/LEAP
pytorch
keonlee9420/Comprehensive-Transformer-TTS
pytorch
wuch15/Fastformer
Officiel
pytorch
ypeleg/Fastformer-Keras
tf
wilile26811249/Fastformer-PyTorch
pytorch
Rishit-dagli/Fast-Transformer
tf
rainyBJ/Fastformer-Paddle
paddle
Ressources - Fastformer : L'attention additive peut tout simplement suffire | Articles | HyperAI
2
2
0
0
0
0
176
176
0
0
32
32
4
4
328
328
191
191
13
13
132
132
150
150
1
1