HyperAI
HyperAI
Accueil
Actualités
Articles de recherche récents
Tutoriels
Ensembles de données
Wiki
SOTA
Modèles LLM
Classement GPU
Événements
Recherche
À propos
Français
HyperAI
HyperAI
Toggle sidebar
Rechercher sur le site...
⌘
K
Accueil
Articles de recherche récents
BERT : Pré-entraînement de Transformers bidirectionnels profonds pour la compréhension linguistique
il y a 2 mois
BERT : Pré-entraînement de Transformers bidirectionnels profonds pour la compréhension linguistique
Jacob Devlin; Ming-Wei Chang; Kenton Lee; Kristina Toutanova
Voir les détails de l'article
Résumé
当然,请提供需要翻译的内容。