Graphen-Entropie-Minimierung für semi-supervised Node-Klassifikation

Knotenklassifizierer müssen vor allem in der Industrie die Vorhersagefehler, die benötigten Trainingsressourcen und die Inferenzlatenz umfassend reduzieren. Allerdings konzentrieren sich die meisten Graph Neural Networks (GNN) lediglich auf eine oder zwei dieser Aspekte. Die dadurch beeinträchtigten Bereiche stellen dann die schwächsten Glieder im Korb dar und behindern die praktische Anwendung für industrielle Aufgabenstellungen. In dieser Arbeit wird ein neuartiges semi-supervised Lernverfahren namens Graph Entropy Minimization (GEM) vorgestellt, das diese drei Herausforderungen gleichzeitig löst. GEM nutzt die Vorteile einer einstellige Aggregation über eine große Menge unklassifizierter Knoten, wodurch die Vorhersagegenauigkeit mit jener von GNNs mit zwei oder mehr Hop-Nachrichtenaustausch vergleichbar wird. Zudem lässt sich GEM dekomponieren, um stochastisches Training mit Mini-Batches unabhängiger Kantenproben zu unterstützen, was eine extrem schnelle Stichprobenerzeugung und ressourcensparendes Training ermöglicht. Während die einstellige Aggregation bei der Inferenz schneller ist als bei tiefen GNNs, kann GEM durch die Ableitung eines nicht-hop-basierten Klassifizierers mittels Online-Knowledgedistillation noch weiter beschleunigt werden. Damit stellt GEM eine praktikable Lösung für Dienste mit strengen Latenzanforderungen und hoher Fehlerempfindlichkeit dar, die auf ressourcenbeschränkter Hardware laufen. Der Quellcode ist unter https://github.com/cf020031308/GEM verfügbar.