HyperAIHyperAI
il y a 3 mois

Modélisation du mouvement à l’aide de caractéristiques multi-modales pour la segmentation vidéo basée sur le texte

Wangbo Zhao, Kai Wang, Xiangxiang Chu, Fuzhao Xue, Xinchao Wang, Yang You
Modélisation du mouvement à l’aide de caractéristiques multi-modales pour la segmentation vidéo basée sur le texte
Résumé

La segmentation vidéo basée sur le texte vise à segmenter l'objet cible dans une vidéo à partir d'une phrase descriptive. L'intégration de l'information motionnelle provenant des cartes de flux optique avec les modalités d'apparence et linguistique est cruciale, mais a été largement négligée par les travaux antérieurs. Dans cet article, nous proposons une méthode pour fusionner et aligner les caractéristiques d'apparence, de mouvement et linguistique afin d’obtenir une segmentation précise. Plus précisément, nous introduisons un transformateur vidéo multi-modal capable de fusionner et d’agréger les caractéristiques multi-modales et temporelles entre les trames. En outre, nous concevons un module de fusion de caractéristiques guidé par le langage, permettant de fusionner progressivement les caractéristiques d'apparence et de mouvement à chaque niveau de représentation sous la guidance des caractéristiques linguistiques. Enfin, nous proposons une perte d’alignement multi-modale afin de réduire l’écart sémantique entre les caractéristiques issues de différentes modalités. Des expériences étendues sur les jeux de données A2D Sentences et J-HMDB Sentences confirment les performances et la capacité de généralisation de notre méthode par rapport aux approches de pointe.

Modélisation du mouvement à l’aide de caractéristiques multi-modales pour la segmentation vidéo basée sur le texte | Articles de recherche | HyperAI