HyperAIHyperAI
il y a 18 jours

S'engager à risque : Extraction conjointe des mentions d'entités et des relations sans arbres de dépendance

{Arzoo Katiyar, Claire Cardie}
S'engager à risque : Extraction conjointe des mentions d'entités et des relations sans arbres de dépendance
Résumé

Nous présentons un nouveau réseau de neurones récurrent à base d’attention pour l’extraction conjointe des mentions d’entités et des relations. Nous démontrons que l’attention combinée à un réseau LSTM (Long Short-Term Memory) permet d’extraire des relations sémantiques entre les mentions d’entités sans avoir accès aux arbres de dépendance. Des expériences menées sur les corpus ACE (Automatic Content Extraction) montrent que notre modèle surpasse significativement le modèle conjoint basé sur des caractéristiques proposé par Li et Ji (2014). Nous comparons également notre modèle à un modèle LSTM basé sur les arbres, entièrement end-to-end, proposé par Miwa et Bansal (2016), appelé SPTree, et montrons que notre approche obtient des performances très proches, avec une différence inférieure à 1 % pour les mentions d’entités et à 2 % pour les relations. Une analyse fine révèle en outre que notre modèle se distingue nettement sur les relations Agent-Artifact, tandis que SPTree excelle sur les relations Physiques et Part-Whole.