HyperAIHyperAI
vor 11 Tagen

GETT-QA: Graph Embedding-basierter T2T-Transformer für die Fragebeantwortung in Wissensgraphen

Debayan Banerjee, Pranav Ajit Nair, Ricardo Usbeck, Chris Biemann
GETT-QA: Graph Embedding-basierter T2T-Transformer für die Fragebeantwortung in Wissensgraphen
Abstract

In dieser Arbeit präsentieren wir ein end-to-end-Wissensgraphen-Fragebeantwortungssystem namens GETT-QA. GETT-QA nutzt T5, ein verbreitetes text-zu-Text-vortrainiertes Sprachmodell. Das Modell nimmt eine Frage in natürlicher Sprache als Eingabe entgegen und erzeugt eine vereinfachte Form der beabsichtigten SPARQL-Abfrage. In dieser vereinfachten Form produziert das Modell keine direkten Entitäts- und Relations-IDs, sondern stattdessen entsprechende Entitäts- und Relationsbezeichnungen (Labels). Diese Labels werden in einem nachfolgenden Schritt auf die Entitäts- und Relations-IDs des Wissensgraphen bezogen. Um die Ergebnisse weiter zu verbessern, instruieren wir das Modell, für jede Entität eine abgeschnittene Version des Wissensgraphen-Embeddings zu erzeugen. Diese abgeschnittene Wissensgraphen-Embedding ermöglicht eine feinere Suche zur Entitäts-Ambiguitätsauflösung. Wir stellen fest, dass T5 in der Lage ist, die abgeschnittenen Wissensgraphen-Embeddings zu lernen, ohne dass eine Änderung der Verlustfunktion erforderlich ist, was die Leistungsfähigkeit der Wissensgraphen-Fragebeantwortung verbessert. Infolge dessen berichten wir über starke Ergebnisse für die Datensätze LC-QuAD 2.0 und SimpleQuestions-Wikidata im Bereich der end-to-end-Wissensgraphen-Fragebeantwortung über Wikidata.

GETT-QA: Graph Embedding-basierter T2T-Transformer für die Fragebeantwortung in Wissensgraphen | Neueste Forschungsarbeiten | HyperAI