HyperAIHyperAI

Command Palette

Search for a command to run...

Évaluation empirique des stratégies de préentraînement pour le lien d'entités supervisé

Thibault Févry Nicholas FitzGerald Livio Baldini Soares Tom Kwiatkowski

Résumé

Dans ce travail, nous présentons un modèle de liaison d'entités qui combine une architecture Transformer avec un préentraînement à grande échelle basé sur les liens de Wikipedia. Notre modèle atteint l'état de l'art sur deux jeux de données couramment utilisés pour la liaison d'entités : 96,7 % sur CoNLL et 94,9 % sur TAC-KBP. Nous fournissons des analyses détaillées afin de comprendre quelles choix architecturaux sont essentiels pour la liaison d'entités, notamment le choix des candidats d'entités négatives, l'architecture Transformer et les perturbations d'entrée. Enfin, nous présentons des résultats prometteurs dans des configurations plus exigeantes, telles que la liaison d'entités en mode end-to-end et la liaison d'entités sans données d'entraînement dans le domaine.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Évaluation empirique des stratégies de préentraînement pour le lien d'entités supervisé | Articles | HyperAI