il y a 2 mois
Une ligne de base BERT pour les Questions Naturelles
Chris Alberti; Kenton Lee; Michael Collins

Résumé
Ce rapport technique décrit une nouvelle référence pour les Natural Questions. Notre modèle est basé sur BERT et réduit l'écart entre les scores F1 du modèle rapportés dans le papier original du jeu de données et la limite supérieure humaine de 30 % et 50 % respectivement pour les tâches de réponse longue et courte. Cette référence a été soumise au classement officiel des NQ sur ai.google.com/research/NaturalQuestions. Le code, les données prétraitées et le modèle préentraîné sont disponibles à l'adresse suivante : https://github.com/google-research/language/tree/master/language/question_answering/bert_joint.