HyperAIHyperAI

Command Palette

Search for a command to run...

Représentations conscientes du contexte pour l'extraction de relations dans les bases de connaissances

Iryna Gurevych Daniil Sorokin

Résumé

Nous démontrons qu’il est avantageux, pour l’extraction de relations au niveau des phrases, de tenir compte des autres relations présentes dans le contexte de la phrase lors de la prédiction de la relation cible. Notre architecture utilise un encodeur basé sur un LSTM pour apprendre conjointement des représentations pour toutes les relations d’une même phrase. Nous combinons ces représentations contextuelles avec un mécanisme d’attention afin d’effectuer la prédiction finale. Nous utilisons la base de connaissances Wikidata pour construire un jeu de données comprenant plusieurs relations par phrase, ainsi que pour évaluer notre approche. Par rapport à un système de référence, notre méthode réduit en moyenne l’erreur de 24 sur un ensemble de relations tenues à l’écart. Le code source et le jeu de données permettant de reproduire les expériences sont disponibles à l’adresse suivante : url{https://github.com/ukplab/}.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Représentations conscientes du contexte pour l'extraction de relations dans les bases de connaissances | Articles | HyperAI