HyperAIHyperAI

Command Palette

Search for a command to run...

Entraînement intermédiaire de BERT pour la correspondance de produits

Goran Glavas Christian Bizer Ralph Peeters

Résumé

Les modèles basés sur Transformer, tels que BERT, ont permis d’atteindre l’état de l’art pour un large éventail de tâches en traitement du langage naturel. L’entraînement préalable généraliste sur de grands corpus permet aux modèles Transformer d’obtenir de bons résultats même avec de faibles quantités de données d’entraînement pour un ajustement fin spécifique à la tâche. Dans ce travail, nous appliquons BERT à la tâche d’appariement de produits dans le commerce électronique et démontrons que BERT est bien plus efficace en termes de données d’entraînement que d’autres méthodes de pointe. En outre, nous montrons que nous pouvons encore améliorer son efficacité grâce à une étape d’entraînement intermédiaire, exploitant de grandes collections d’offres de produits. Cette étape d’entraînement intermédiaire permet d’obtenir des performances élevées (>90 % de F1) sur de nouveaux produits jamais vus, sans aucune adaptation fine spécifique à ces produits. Un ajustement fin ultérieur apporte des gains supplémentaires, entraînant une amélioration pouvant atteindre 12 % de F1 pour de petits ensembles d’entraînement. L’ajout de l’objectif de modélisation de mots masqués lors de l’étape d’entraînement intermédiaire, afin d’adapter davantage le modèle linguistique au domaine d’application, conduit à une augmentation supplémentaire pouvant atteindre 3 % de F1.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp