Steigerung der Geschwindigkeit der Entitätenausrichtung 10*: Dualer Aufmerksamkeitsübereinstimmungsnetzwerk mit normalisierten schweren Beispielminierung

Die Suche nach äquivalenten Entitäten in mehreren Quell-Wissensgraphen (KGs) stellt den entscheidenden Schritt für die Integration von Wissensgraphen dar und ist bekannt als \emph{Entity Alignment} (EA). Allerdings sind die meisten bestehenden EA-Methoden ineffizient und weisen eine schlechte Skalierbarkeit auf. Eine kürzliche Zusammenfassung weist darauf hin, dass einige dieser Methoden sogar mehrere Tage benötigen, um eine Datensatzmenge mit 200.000 Knoten (DWY100K) zu verarbeiten. Wir vermuten, dass die übermäßige Komplexität der Graph-Encoder und ineffiziente Strategien zur Negativ-Sampling die beiden Hauptursachen hierfür sind. In diesem Artikel präsentieren wir einen neuartigen KG-Encoder – das Dual Attention Matching Network (Dual-AMN) –, der nicht nur sowohl intra-graphische als auch inter-graphische Informationen geschickt modelliert, sondern zudem die Berechnungskomplexität erheblich reduziert. Darüber hinaus schlagen wir die Normalized Hard Sample Mining Loss vor, um harte negative Beispiele reibungslos auszuwählen und die Loss-Shift zu verringern. Die experimentellen Ergebnisse auf weit verbreiteten öffentlichen Datensätzen zeigen, dass unsere Methode sowohl hohe Genauigkeit als auch hohe Effizienz erzielt. Auf dem DWY100K-Datensatz kann der gesamte Ausführungsprozess unserer Methode in nur 1.100 Sekunden abgeschlossen werden, mindestens zehnmal schneller als frühere Ansätze. Die Leistung unserer Methode übertrifft zudem alle vorherigen Ansätze auf allen Datensätzen, wobei Hits@1 und MRR um 6 % bis 13 % verbessert wurden.