Ein aufmerksamkeitsbasierter Graph-Neural-Netzwerk-Ansatz für heterogenes strukturelles Lernen

In dieser Arbeit konzentrieren wir uns auf das Lernen von Graphrepräsentationen in heterogenen Informationsnetzwerken (HIN), in denen verschiedene Arten von Knoten durch verschiedene Arten von Beziehungen verbunden sind. Die meisten existierenden Methoden, die auf HIN angewendet werden, passen homogene Graphenebnungsmodelle durch Metapfade an, um eine niedrigdimensionale Vektordarstellung des HIN zu erlernen. In diesem Beitrag schlagen wir ein neues Heterogenes Graph-Strukturales Aufmerksamkeitsneuronales Netzwerk (HetSANN) vor, das Strukturinformationen des HIN direkt kodiert, ohne Metapfade zu verwenden und dadurch informativere Darstellungen erzielt. Mit dieser Methode ist es nicht mehr notwendig, dass Domänenexperten Metapfad-Schemata entwerfen, und die heterogenen Informationen können automatisch von unserem vorgeschlagenen Modell verarbeitet werden. Insbesondere repräsentieren wir die heterogenen Informationen implizit durch folgende zwei Methoden: 1) Wir modellieren die Transformation zwischen heterogenen Knoten durch eine Projektion in niedrigdimensionale Entitätsräume; 2) Anschließend wenden wir ein Graph-Neuronales Netzwerk an, um die multirelationale Information der projizierten Nachbarschaft mittels eines Aufmerksamkeitsmechanismus zusammenzufassen. Wir stellen außerdem drei Erweiterungen von HetSANN vor: nämlich Produkt-Aufmerksamkeit mit Stimmen-Teilung für paarweise Beziehungen in HINs, Zyklus-Konsistenzverlust zur Erhaltung der Transformation zwischen heterogenen Entitätsräumen und Mehraufgaben-Lernen zur vollständigen Nutzung der Informationen. Die Experimente mit drei öffentlichen Datensätzen zeigen, dass unsere vorgeschlagenen Modelle im Vergleich zu den aktuellen Lösungen signifikante und konsistente Verbesserungen erreichen.