HyperAIHyperAI

Command Palette

Search for a command to run...

Sur l'importance du volume des données d'apprentissage préalable pour les modèles linguistiques compacts

Vincent Micheli Martin d&#39 Hoffschmidt François Fleuret

Résumé

Les avancées récentes en modélisation du langage ont conduit à des modèles d’état de l’art hautement intensifs en calcul et exigeants en ressources. Dans une optique de pratiques durables, nous étudions l’impact du volume des données d’entraînement préalable sur des modèles linguistiques compacts. Plusieurs modèles basés sur BERT sont entraînés sur des quantités croissantes de texte français. En effectuant un ajustage fin sur le jeu de données français de question-réponse (FQuAD), nous observons que des modèles performants peuvent être obtenus avec aussi peu que 100 Mo de texte. Par ailleurs, nous démontrons qu’au-delà d’un seuil critique de faible quantité de données d’entraînement préalable, une étape intermédiaire d’entraînement préalable sur un corpus spécifique à la tâche ne conduit pas à des améliorations significatives.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp