Perception Adaptative pour le Suivi d'Objets Multi-modaux Visuels Unifié

Récemment, de nombreux traqueurs multimodaux accordent la priorité à la modalité RGB en tant que modalité dominante, traitant les autres modalités comme secondaires, tout en effectuant un ajustage fin (fine-tuning) séparé pour diverses tâches multimodales. Ce déséquilibre dans la dépendance aux modalités limite la capacité des méthodes à exploiter dynamiquement les informations complémentaires provenant de chaque modalité dans des scénarios complexes, rendant difficile la pleine exploitation des avantages du traitement multimodal. En conséquence, un modèle paramétrique unifié souffre souvent d’un rendement insuffisant sur différentes tâches de traçage multimodal. Pour remédier à ce problème, nous proposons APTrack, un nouveau traqueur unifié conçu pour une perception adaptative multimodale. Contrairement aux méthodes précédentes, APTrack explore une représentation unifiée via une stratégie d’encodage équilibrée. Cette approche permet au modèle de s’adapter dynamiquement à différentes modalités et tâches sans nécessiter d’ajustage fin supplémentaire entre les différentes tâches. En outre, notre traqueur intègre un module d’interaction adaptative entre modalités (AMI), qui permet de façon efficace de relier les interactions entre modalités en générant des tokens apprenables. Des expériences menées sur cinq jeux de données multimodaux diversifiés (RGBT234, LasHeR, VisEvent, DepthTrack et VOT-RGBD2022) démontrent que APTrack non seulement dépasse les meilleurs traqueurs unifiés multimodaux existants, mais qu’il surpasse également les traqueurs spécifiquement conçus pour des tâches multimodales particulières.