HyperAI
HyperAI
Hauptbereich
Startseite
GPU
Konsole
Dokumente
Preise
Pulse
Neuigkeiten
Ressourcen
Fachartikel
Notebooks
Datensätze
Wiki
Benchmarks
SOTA
LLM-Modelle
GPU-Bestenliste
Community
Veranstaltungen
Tools
Suche
Über uns
Nutzungsbedingungen
Datenschutzerklärung
Deutsch
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
Anmelden
HyperAI
Papers
mT5: Ein massiv mehrsprachig vortrainierter Text-zu-Text-Transformer
vor 6 Monaten
Transformer
Textgenerierung
Any-to-Any
Ansatz/Rahmenwerk
Natürliche Sprachverarbeitung
Multimodal
Aufgabe
Zusammenfassung
Paper
Benchmarks
Ressourcen
KoshiroSato/Flask_NLP_App
MorenoLaQuatra/bart-it
pytorch
manshri/tesum
pytorch
KoshiroSato/Simple_Transformers_mT5_finetuning
google-research/multilingual-t5
Offiziell
tf
huggingface/transformers
pytorch
pwc-1/Paper-5/tree/main/mt5
mindspore
google-research/byt5
tf
https://arxiv.org/abs/2010.11976
HyperAI
HyperAI
Hauptbereich
Startseite
GPU
Konsole
Dokumente
Preise
Pulse
Neuigkeiten
Ressourcen
Fachartikel
Notebooks
Datensätze
Wiki
Benchmarks
SOTA
LLM-Modelle
GPU-Bestenliste
Community
Veranstaltungen
Tools
Suche
Über uns
Nutzungsbedingungen
Datenschutzerklärung
Deutsch
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
Anmelden
HyperAI
Papers
mT5: Ein massiv mehrsprachig vortrainierter Text-zu-Text-Transformer
vor 6 Monaten
Transformer
Textgenerierung
Any-to-Any
Ansatz/Rahmenwerk
Natürliche Sprachverarbeitung
Multimodal
Aufgabe
Zusammenfassung
Paper
Benchmarks
Ressourcen
KoshiroSato/Flask_NLP_App
MorenoLaQuatra/bart-it
pytorch
manshri/tesum
pytorch
KoshiroSato/Simple_Transformers_mT5_finetuning
google-research/multilingual-t5
Offiziell
tf
huggingface/transformers
pytorch
pwc-1/Paper-5/tree/main/mt5
mindspore
google-research/byt5
tf
https://arxiv.org/abs/2010.11976
Ressourcen - mT5: Ein massiv mehrsprachig vortrainierter Text-zu-Text-Transformer | Paper | HyperAI
0
0
16
16
1
1
0
0
1.3k
1.3k
156.2k
156.2k
0
0
533
533