HyperAIHyperAI
il y a 2 mois

Plongement d'entités et de relations pour l'apprentissage et l'inférence dans les bases de connaissances

Bishan Yang; Wen-tau Yih; Xiaodong He; Jianfeng Gao; Li Deng
Plongement d'entités et de relations pour l'apprentissage et l'inférence dans les bases de connaissances
Résumé

Nous considérons l'apprentissage de représentations d'entités et de relations dans les bases de connaissances (KBs) en utilisant l'approche d'embedding neuronale. Nous montrons que la plupart des modèles existants, y compris NTN (Socher et al., 2013) et TransE (Bordes et al., 2013b), peuvent être généralisés sous un cadre d'apprentissage unifié, où les entités sont des vecteurs de faible dimension appris à partir d'un réseau neuronal et les relations sont des fonctions de mappage bilinéaires et/ou linéaires. Dans ce cadre, nous comparons une variété de modèles d'embedding sur la tâche de prédiction de liens. Nous démontrons qu'une formulation bilinéaire simple atteint de nouveaux résultats d'état de l'art pour cette tâche (obtenant une précision dans le top-10 de 73,2% contre 54,7% par TransE sur Freebase). De plus, nous introduisons une nouvelle approche qui utilise les embeddings relationnels appris pour extraire des règles logiques telles que « BornInCity(a,b) et CityInCountry(b,c) => Nationality(a,c) ». Nous constatons que les embeddings appris à partir de l'objectif bilinéaire sont particulièrement efficaces pour capturer la sémantique relationnelle et que la composition des relations est caractérisée par la multiplication matricielle. Plus intéressamment encore, nous montrons que notre approche basée sur l'extraction d'embeddings réussit à surpasser une approche avancée basée sur la confiance pour l'extraction de règles Horn impliquant un raisonnement compositionnel.

Plongement d'entités et de relations pour l'apprentissage et l'inférence dans les bases de connaissances | Articles de recherche récents | HyperAI