DRUM: End-to-End differenzierbares Regelmining in Wissensgraphen

In dieser Arbeit untersuchen wir das Problem des Lernens von wahrscheinlichkeitsbasierten logischen Regeln für induktive und interpretierbare Link-Vorhersage. Trotz der Bedeutung der induktiven Link-Vorhersage konzentrierten sich die meisten bisherigen Arbeiten auf transductive Link-Vorhersage und konnten nicht mit zuvor unbekannten Entitäten umgehen. Darüber hinaus sind sie Black-Box-Modelle, die für Menschen nicht leicht erklärbar sind. Wir schlagen DRUM vor, einen skalierbaren und differenzierbaren Ansatz zur Ausgrabung von ersten Ordnungs logischen Regeln aus Wissensgraphen, der diese Probleme löst. Unser Verfahren wird durch den Zusammenhang zwischen dem Lernen von Konfidenzwerten für jede Regel und der Niedrigrang-Tensorapproximation motiviert. DRUM verwendet bidirektionale RNNs (Recurrent Neural Networks), um nützliche Informationen bei der Regelbewertung für verschiedene Relationen zu teilen. Wir demonstrieren auch empirisch die Effizienz von DRUM im Vergleich zu existierenden Regelmining-Methoden für induktive Link-Vorhersage anhand verschiedener Benchmark-Datensätze.