Apprentissage de représentations d'entités inter-contextuelles à partir du texte

Les tâches de modélisation linguistique, dans lesquelles des mots ou des fragments de mots sont prédits sur la base d'un contexte local, ont été très efficaces pour apprendre des plongements de mots (word embeddings) et des représentations dépendantes du contexte de phrases. Motivés par l'observation que les efforts visant à coder les connaissances mondiales dans des bases de connaissances lisibles par machine ou des encyclopédies lisibles par l'homme tendent à être centrés sur les entités, nous avons enquêté sur l'utilisation d'une tâche de complétion pour apprendre des représentations indépendantes du contexte d'entités à partir des contextes textuels dans lesquels ces entités ont été mentionnées. Nous montrons que l'entraînement à grande échelle de modèles neuronaux nous permet d'apprendre des représentations d'entités de haute qualité, et nous présentons des résultats réussis dans quatre domaines : (1) les benchmarks existants de typage au niveau des entités, y compris une réduction de 64 % des erreurs par rapport aux travaux précédents sur TypeNet (Murty et al., 2018) ; (2) une nouvelle tâche de reconstruction catégorielle en quelques exemples ; (3) les benchmarks existants de liaison d'entités, où nous obtenons des performances équivalentes à l'état de l'art sur CoNLL-Aida sans caractéristiques spécifiques à la liaison et un score de 89,8 % sur TAC-KBP 2010 sans utiliser aucune table d'alias, base de connaissances externe ou données d'entraînement spécifiques au domaine ; (4) la réponse à des questions triviales qui identifient uniquement les entités. Nos représentations globales d'entités codent des catégories typologiques fines, telles que les footballeurs écossais, et peuvent répondre à des questions triviales comme : Qui était le dernier détenu de la prison Spandau à Berlin ?