HyperAIHyperAI

Command Palette

Search for a command to run...

Ansichtsinvariante Erkennung menschlicher Aktionen mittels Histogramme dreidimensionaler Gelenke

Chia-Chih Chen J. K. Aggarwal Lu Xia

Zusammenfassung

In diesem Artikel präsentieren wir einen neuen Ansatz zur menschlichen Aktionserkennung basierend auf Histogrammen dreidimensionaler Gelenkpositionen (HOJ3D) als kompakte Darstellung von Körperhaltungen. Die dreidimensionalen Gelenkpositionen des Skeletts werden aus Kinect-Tiefenkarten mittels der Methode von Shotton et al. [6] extrahiert. Die aus den Tiefenfolgen der Aktionen berechneten HOJ3D-Werte werden mittels LDA reprojiziert und anschließend in k posturale Visual Words clustering, die prototypische Haltungen von Aktionen repräsentieren. Die zeitliche Entwicklung dieser Visual Words wird durch diskrete verborgene Markov-Modelle (HMMs) modelliert. Zudem zeigt unsere Methode auf unserem 3D-Aktionsdatensatz aufgrund der Gestaltung unseres sphärischen Koordinatensystems sowie der robusten Schätzung des 3D-Skeletts mittels Kinect eine erhebliche Ansichtsinvarianz. Unser Datensatz besteht aus 200 dreidimensionalen Sequenzen von 10 im Innenbereich durchgeführten Aktivitäten, die von 10 Personen aus unterschiedlichen Blickwinkeln aufgenommen wurden. Unser Ansatz arbeitet in Echtzeit und erzielt hervorragende Ergebnisse auf dem anspruchsvollen 3D-Aktionsdatensatz. Zudem haben wir unseren Algorithmus auch auf dem MSR Action 3D-Datensatz getestet, wobei sich zeigt, dass unser Verfahren in den meisten Fällen die Leistung von Li et al. [25] übertrifft.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp