HyperAIHyperAI
il y a 2 mois

Apprentissage de représentations distribuées de textes et d'entités à partir d'une base de connaissances

Ikuya Yamada; Hiroyuki Shindo; Hideaki Takeda; Yoshiyasu Takefuji
Apprentissage de représentations distribuées de textes et d'entités à partir d'une base de connaissances
Résumé

Nous décrivons un modèle de réseau neuronal qui apprend conjointement des représentations distribuées de textes et d'entités de base de connaissances (KB). Étant donné un texte dans la base de connaissances, nous formons notre modèle proposé pour prédire les entités pertinentes à ce texte. Notre modèle est conçu pour être générique, avec la capacité de traiter diverses tâches en traitement du langage naturel (NLP) facilement. Nous formons le modèle en utilisant un grand corpus de textes et leurs annotations d'entités extraits de Wikipedia. Nous avons évalué le modèle sur trois tâches importantes en NLP (à savoir, la similarité textuelle des phrases, le lien d'entités et la réponse aux questions factuelles), impliquant à la fois des configurations non supervisées et supervisées. En conséquence, nous avons obtenu des résultats d'état de l'art sur chacune de ces trois tâches. Notre code et nos modèles entraînés sont disponibles publiquement pour une recherche académique ultérieure.