HyperAIHyperAI
il y a 11 jours

Reconnaissance d’actions humaines invariantes par rapport à la vue à l’aide d’histogrammes de jointures 3D

{Chia-Chih Chen, J. K. Aggarwal, Lu Xia}
Résumé

Dans cet article, nous présentons une nouvelle approche pour la reconnaissance d’actions humaines basée sur des histogrammes des positions des articulations 3D (HOJ3D), utilisés comme représentation compacte des postures. Nous extrayons les positions des articulations squelettiques 3D à partir des cartes de profondeur Kinect à l’aide de la méthode de Shotton et al. [6]. Les HOJ3D calculés à partir des séquences de profondeur d’actions sont ensuite reprojectés à l’aide de l’analyse discriminante linéaire (LDA), puis regroupés en k mots visuels de posture, qui représentent les postures prototypes des actions. L’évolution temporelle de ces mots visuels est modélisée à l’aide de modèles de Markov cachés discrets (HMM). En outre, grâce à la conception de notre système de coordonnées sphériques et à l’estimation robuste du squelette 3D fournie par Kinect, notre méthode présente une invariance de vue significative sur notre jeu de données d’actions 3D. Notre jeu de données comprend 200 séquences 3D d’10 activités intérieures effectuées par 10 individus, sous diverses perspectives. Notre méthode fonctionne en temps réel et obtient des résultats supérieurs sur le jeu de données d’actions 3D exigeant. Nous avons également testé notre algorithme sur le jeu de données MSR Action 3D, où il surpasse les résultats de Li et al. [25] dans la majorité des cas.

Reconnaissance d’actions humaines invariantes par rapport à la vue à l’aide d’histogrammes de jointures 3D | Articles de recherche récents | HyperAI