HyperAIHyperAI

Command Palette

Search for a command to run...

Pré-entraînement de modèles Transformer avec des objectifs au niveau de la phrase pour la sélection de la phrase réponse

Luca Di Liello Siddhant Garg Luca Soldaini Alessandro Moschitti

Résumé

Une tâche essentielle dans la conception de systèmes de questions-réponses (QA) consiste à sélectionner la phrase réponse (AS2), c’est-à-dire à identifier la phrase contenant (ou constituant) la réponse à une question parmi un ensemble de documents pertinents récupérés. Dans cet article, nous proposons trois nouveaux objectifs d’entraînement préalable à base de transformateurs au niveau des phrases, intégrant des sémantiques au niveau des paragraphes, à l’intérieur comme entre les documents, afin d’améliorer les performances des transformateurs pour la tâche AS2 et de réduire la dépendance aux grandes collections étiquetées. Plus précisément, le modèle est chargé de prédire : (i) si deux phrases proviennent du même paragraphe, (ii) si une phrase donnée provient d’un paragraphe donné, et (iii) si deux paragraphes proviennent du même document. Nos expérimentations sur trois jeux de données publics et un jeu de données industriels pour l’AS2 démontrent de manière empirique l’avantage de nos transformateurs pré-entraînés par rapport aux modèles de référence tels que RoBERTa et ELECTRA dans la tâche AS2.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp