HyperAIHyperAI
vor 3 Monaten

Lernen eines Graphen-Convolutional Networks für die menschliche Aktionserkennung basierend auf Skelettdaten durch neuronale Suche

Wei Peng, Xiaopeng Hong, Haoyu Chen, Guoying Zhao
Lernen eines Graphen-Convolutional Networks für die menschliche Aktionserkennung basierend auf Skelettdaten durch neuronale Suche
Abstract

Die Erkennung menschlicher Aktionen aus Skelett-Daten, angetrieben durch Graphen-Convolutional Networks (GCN), hat aufgrund ihrer herausragenden Fähigkeit, nicht-euklidische Strukturdaten zu modellieren, erhebliche Aufmerksamkeit erlangt. Allerdings verwenden viele bestehende GCN-Methoden einen vordefinierten Graphen, der über das gesamte Netzwerk hinweg fixiert bleibt, wodurch implizite Gelenk-Korrelationen verloren gehen können. Zudem wird der etablierte Spektral-GCN durch eine Einsprung-Näherung approximiert, wodurch höhere Nachbarschaftsbeziehungen unzureichend berücksichtigt werden. Daher sind erhebliche Anstrengungen erforderlich, um eine verbesserte GCN-Architektur zu entwickeln. Um diese Probleme anzugehen, greifen wir auf Neural Architecture Search (NAS) zurück und stellen die erste automatisch entworfene GCN für die Aktionserkennung basierend auf Skelett-Daten vor. Konkret erweitern wir den Suchraum, indem wir nach einer umfassenden Analyse der räumlich-zeitlichen Korrelationen zwischen Knoten mehrere dynamische Graph-Module bereitstellen. Darüber hinaus führen wir mehrstufige (multi-hop) Module ein, um die Beschränkung der Repräsentationskapazität durch die Einsprung-Näherung zu überwinden. Außerdem wird eine sampling- und speichereffiziente Evolutionsstrategie vorgeschlagen, um eine optimale Architektur für diese Aufgabe zu finden. Die resultierende Architektur bestätigt die Wirksamkeit der höheren Approximation und des dynamischen Graph-Modellierungsmechanismus mit zeitlichen Interaktionen, die bisher kaum untersucht wurden. Um die Leistungsfähigkeit des entworfenen Modells zu evaluieren, führen wir umfangreiche Experimente auf zwei sehr großen Datensätzen durch. Die Ergebnisse zeigen, dass unser Modell die derzeit besten Ergebnisse erzielt.