HyperAIHyperAI

Command Palette

Search for a command to run...

Typage d'entités ultra-fin avec une supervision faible issue d'un modèle de langage masqué

Hongliang Dai Yangqiu Song Haixun Wang

Résumé

Récemment, des efforts ont été déployés pour étendre le typage d'entités à très fine granularité en adoptant un ensemble plus riche et ultra-fine de types, en étiquetant non seulement les mentions d'entités nommées, mais également les groupes nominaux, y compris les pronoms et les noms nominaux. Un défi majeur posé par cette tâche de typage d'entités ultra-fine réside dans le fait que les données annotées manuellement sont extrêmement rares, et que les capacités d'annotation des approches existantes basées sur une supervision distante ou faible sont très limitées. Pour remédier à ce problème, nous proposons dans cet article d’obtenir des données d’entraînement pour le typage d’entités ultra-fine en exploitant un Modèle de Langage Masqué (MLM) basé sur BERT. Étant donné une mention dans une phrase, notre approche construit une entrée adaptée pour le MLM BERT afin qu’il prédise des hyperonymes dépendants du contexte de la mention, qui peuvent servir de libellés de type. Les résultats expérimentaux démontrent que, grâce à ces étiquettes générées automatiquement, la performance d’un modèle de typage d’entités ultra-fine peut être significativement améliorée. Nous montrons également que notre approche peut être appliquée pour améliorer le typage d’entités finement granulaires traditionnel après un simple mappage de types.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp