HyperAIHyperAI

Command Palette

Search for a command to run...

S'engager à risque : Extraction conjointe des mentions d'entités et des relations sans arbres de dépendance

Arzoo Katiyar Claire Cardie

Résumé

Nous présentons un nouveau réseau de neurones récurrent à base d’attention pour l’extraction conjointe des mentions d’entités et des relations. Nous démontrons que l’attention combinée à un réseau LSTM (Long Short-Term Memory) permet d’extraire des relations sémantiques entre les mentions d’entités sans avoir accès aux arbres de dépendance. Des expériences menées sur les corpus ACE (Automatic Content Extraction) montrent que notre modèle surpasse significativement le modèle conjoint basé sur des caractéristiques proposé par Li et Ji (2014). Nous comparons également notre modèle à un modèle LSTM basé sur les arbres, entièrement end-to-end, proposé par Miwa et Bansal (2016), appelé SPTree, et montrons que notre approche obtient des performances très proches, avec une différence inférieure à 1 % pour les mentions d’entités et à 2 % pour les relations. Une analyse fine révèle en outre que notre modèle se distingue nettement sur les relations Agent-Artifact, tandis que SPTree excelle sur les relations Physiques et Part-Whole.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
S'engager à risque : Extraction conjointe des mentions d'entités et des relations sans arbres de dépendance | Articles | HyperAI