LogicENN: Ein neuronales Modell zur Einbettung von Wissensgraphen mit logischen Regeln

Wissensgraph-Einbettungsmodelle haben in der KI-Forschung erhebliche Aufmerksamkeit gefunden. Neuere Arbeiten haben gezeigt, dass die Einbeziehung von Hintergrundwissen, wie logischen Regeln, die Leistung von Einbettungen in nachgelagerten Maschinelles-Lernen-Aufgaben verbessern kann. Bislang jedoch ermöglichen die meisten existierenden Modelle nicht die Einbeziehung von Regeln. Wir greifen diese Herausforderung auf und stellen ein neues neuronales Einbettungsmodell (LogicENN) vor. Wir beweisen, dass LogicENN jedes Faktum der kodierten Regeln in einem Wissensgraph lernen kann. Nach unserem besten Wissen wurde dies bisher für die Familie der neuronalen Einbettungsmodelle nicht bewiesen. Darüber hinaus leiten wir Formeln zur Einbeziehung verschiedener Regeln ab, darunter (Anti-)Symmetrie, Inversen, Irreflexivität und Transitivität, Implikation, Komposition, Äquivalenz und Negation. Unsere Formulierung ermöglicht es, das Grounding für Implikations- und Äquivalenzrelationen zu vermeiden. Unsere Experimente zeigen, dass LogicENN den Stand der Technik in Link-Vorhersage übertreffen kann.