HyperAIHyperAI

Command Palette

Search for a command to run...

Pré-entraînement de Transformer sensible au contexte pour la sélection de phrases réponse

Luca Di Liello Siddhant Garg Alessandro Moschitti

Résumé

La sélection de phrases réponse (AS2) constitue un élément central dans la construction d’un pipeline de réponse aux questions précis. Les modèles AS2 classent un ensemble de phrases candidates en fonction de leur probabilité de répondre à une question donnée. L’état de l’art en matière d’AS2 repose sur l’adaptation de modèles pré-entraînés basés sur les transformateurs, en les transférant sur de grandes bases de données annotées tout en exploitant les informations contextuelles locales autour de chaque phrase candidate. Dans cet article, nous proposons trois objectifs d’entraînement préalable conçus pour imiter la tâche de fine-tuning en situation réelle d’AS2 contextuelle. Cette approche permet de spécialiser les modèles linguistiques (LM) lors du fine-tuning pour l’AS2 contextuelle. Nos expérimentations menées sur trois jeux de données publics et deux jeux de données industriels à grande échelle montrent que nos méthodes d’entraînement préalable (appliquées à RoBERTa et ELECTRA) peuvent améliorer l’exactitude de la base contextuelle d’AS2 jusqu’à 8 % sur certains jeux de données.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Pré-entraînement de Transformer sensible au contexte pour la sélection de phrases réponse | Articles | HyperAI