HyperAIHyperAI
il y a 13 jours

Perception Adaptative pour le Suivi d'Objets Multi-modaux Visuels Unifié

Xiantao Hu, Bineng Zhong, Qihua Liang, Zhiyi Mo, Liangtao Shi, Ying Tai, Jian Yang
Perception Adaptative pour le Suivi d'Objets Multi-modaux Visuels Unifié
Résumé

Récemment, de nombreux traqueurs multimodaux accordent la priorité à la modalité RGB en tant que modalité dominante, traitant les autres modalités comme secondaires, tout en effectuant un ajustage fin (fine-tuning) séparé pour diverses tâches multimodales. Ce déséquilibre dans la dépendance aux modalités limite la capacité des méthodes à exploiter dynamiquement les informations complémentaires provenant de chaque modalité dans des scénarios complexes, rendant difficile la pleine exploitation des avantages du traitement multimodal. En conséquence, un modèle paramétrique unifié souffre souvent d’un rendement insuffisant sur différentes tâches de traçage multimodal. Pour remédier à ce problème, nous proposons APTrack, un nouveau traqueur unifié conçu pour une perception adaptative multimodale. Contrairement aux méthodes précédentes, APTrack explore une représentation unifiée via une stratégie d’encodage équilibrée. Cette approche permet au modèle de s’adapter dynamiquement à différentes modalités et tâches sans nécessiter d’ajustage fin supplémentaire entre les différentes tâches. En outre, notre traqueur intègre un module d’interaction adaptative entre modalités (AMI), qui permet de façon efficace de relier les interactions entre modalités en générant des tokens apprenables. Des expériences menées sur cinq jeux de données multimodaux diversifiés (RGBT234, LasHeR, VisEvent, DepthTrack et VOT-RGBD2022) démontrent que APTrack non seulement dépasse les meilleurs traqueurs unifiés multimodaux existants, mais qu’il surpasse également les traqueurs spécifiquement conçus pour des tâches multimodales particulières.

Perception Adaptative pour le Suivi d'Objets Multi-modaux Visuels Unifié | Articles de recherche récents | HyperAI