Command Palette
Search for a command to run...
PYSKL: Hinweise für gute Praktiken bei der Aktionserkennung basierend auf Skelettdaten
PYSKL: Hinweise für gute Praktiken bei der Aktionserkennung basierend auf Skelettdaten
Haodong Duan Jiaqi Wang Kai Chen Dahua Lin
Zusammenfassung
Wir präsentieren PYSKL: einen Open-Source-Toolbox für aktionsbasierte Erkennung auf Basis von Skelett-Daten, basierend auf PyTorch. Der Toolset unterstützt eine breite Palette von Algorithmen zur Skelett-basierten Aktionserkennung, einschließlich Ansätze auf Basis von GCN (Graph Convolutional Networks) und CNN (Convolutional Neural Networks). Im Gegensatz zu bestehenden Open-Source-Projekten zur Skelett-Aktionserkennung, die lediglich einen oder zwei Algorithmen implementieren, integriert PYSKL sechs verschiedene Algorithmen innerhalb eines einheitlichen Rahmens und kombiniert dabei sowohl aktuelle als auch bewährte klassische Praktiken, um den Vergleich der Effizienz und Wirksamkeit zu vereinfachen. Zudem stellen wir ein ursprüngliches, auf GCN basierendes Modell zur Skelett-Aktionserkennung namens ST-GCN++ vor, das eine konkurrenzfähige Erkennungsleistung erzielt, ohne auf komplexe Aufmerksamkeitsmechanismen zurückgreifen zu müssen, und somit als robuste Baseline dient. Gleichzeitig unterstützt PYSKL das Training und die Evaluation auf neun verschiedenen Benchmarks zur skelettbasierten Aktionserkennung und erreicht dabei state-of-the-art-Ergebnisse bei acht davon. Um zukünftige Forschungsarbeiten in diesem Bereich zu erleichtern, stellen wir zudem eine große Anzahl bereits trainierter Modelle sowie detaillierte Benchmark-Ergebnisse bereit, um wertvolle Einblicke zu ermöglichen. PYSKL ist unter https://github.com/kennymckormick/pyskl veröffentlicht und wird kontinuierlich weiterentwickelt. Wir werden diesen Bericht aktualisieren, sobald neue Funktionen oder Benchmarks hinzugefügt werden. Die aktuelle Version entspricht PYSKL v0.2.