Apprentissage d'embeddings tri-modaux pour la cartographie de paysages sonores zéro-shot

Nous nous concentrons sur la tâche de cartographie des paysages sonores, qui consiste à prédire les sons les plus probables perçus à un emplacement géographique donné. Nous utilisons des modèles récents d'avant-garde pour encoder des données audio géolocalisées, une description textuelle de ces audio et une image aérienne du lieu de capture, grâce à un pré-entraînement contrastif. Le résultat final est un espace d'embeddings partagé pour les trois modalités, permettant ainsi de construire des cartes de paysages sonores pour toute région géographique à partir de requêtes textuelles ou audio. En utilisant le jeu de données SoundingEarth, nous constatons que notre approche surpasse significativement l'état de l'art existant, avec une amélioration du Recall@100 (image vers audio) passant de 0,256 à 0,450. Notre code est disponible à l'adresse suivante : https://github.com/mvrl/geoclap.