HyperAIHyperAI
vor 11 Tagen

Ansichtsinvariante Erkennung menschlicher Aktionen mittels Histogramme dreidimensionaler Gelenke

{Chia-Chih Chen, J. K. Aggarwal, Lu Xia}
Abstract

In diesem Artikel präsentieren wir einen neuen Ansatz zur menschlichen Aktionserkennung basierend auf Histogrammen dreidimensionaler Gelenkpositionen (HOJ3D) als kompakte Darstellung von Körperhaltungen. Die dreidimensionalen Gelenkpositionen des Skeletts werden aus Kinect-Tiefenkarten mittels der Methode von Shotton et al. [6] extrahiert. Die aus den Tiefenfolgen der Aktionen berechneten HOJ3D-Werte werden mittels LDA reprojiziert und anschließend in k posturale Visual Words clustering, die prototypische Haltungen von Aktionen repräsentieren. Die zeitliche Entwicklung dieser Visual Words wird durch diskrete verborgene Markov-Modelle (HMMs) modelliert. Zudem zeigt unsere Methode auf unserem 3D-Aktionsdatensatz aufgrund der Gestaltung unseres sphärischen Koordinatensystems sowie der robusten Schätzung des 3D-Skeletts mittels Kinect eine erhebliche Ansichtsinvarianz. Unser Datensatz besteht aus 200 dreidimensionalen Sequenzen von 10 im Innenbereich durchgeführten Aktivitäten, die von 10 Personen aus unterschiedlichen Blickwinkeln aufgenommen wurden. Unser Ansatz arbeitet in Echtzeit und erzielt hervorragende Ergebnisse auf dem anspruchsvollen 3D-Aktionsdatensatz. Zudem haben wir unseren Algorithmus auch auf dem MSR Action 3D-Datensatz getestet, wobei sich zeigt, dass unser Verfahren in den meisten Fällen die Leistung von Li et al. [25] übertrifft.

Ansichtsinvariante Erkennung menschlicher Aktionen mittels Histogramme dreidimensionaler Gelenke | Neueste Forschungsarbeiten | HyperAI