HyperAI
HyperAI
Principal
Accueil
GPU
Console
Docs
Tarifs
Pulse
Actualités
Ressources
Publications de recherche
Notebooks
Jeux de données
Wiki
Benchmarks
SOTA
Modèles LLM
Classement des GPU
Communauté
Événements
Utilitaires
Recherche
À propos
Conditions d’utilisation
Politique de confidentialité
Français
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
Se connecter
HyperAI
Papers
Pré-formation avec le masquage de mots entiers pour BERT chinois
il y a 7 mois
Transformer
Langue
Apprentissage Multi-tâches
Approche/Framework
Traitement Du Langage Naturel
Tâche
Résumé
Paper
Benchmarks
Ressources
ymcui/Chinese-BERT-wwm
10.2k
Officiel
pytorch
brightmart/roberta_zh
tf
HyperAI
HyperAI
Principal
Accueil
GPU
Console
Docs
Tarifs
Pulse
Actualités
Ressources
Publications de recherche
Notebooks
Jeux de données
Wiki
Benchmarks
SOTA
Modèles LLM
Classement des GPU
Communauté
Événements
Utilitaires
Recherche
À propos
Conditions d’utilisation
Politique de confidentialité
Français
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
Se connecter
HyperAI
Papers
Pré-formation avec le masquage de mots entiers pour BERT chinois
il y a 7 mois
Transformer
Langue
Apprentissage Multi-tâches
Approche/Framework
Traitement Du Langage Naturel
Tâche
Résumé
Paper
Benchmarks
Ressources
ymcui/Chinese-BERT-wwm
10.2k
Officiel
pytorch
brightmart/roberta_zh
tf
2.8k
2.8k
Ressources - Pré-formation avec le masquage de mots entiers pour BERT chinois | Articles | HyperAI