CurlingNet : Apprentissage compositionnel entre images et texte pour les données Fashion IQ

Nous présentons une approche nommée CurlingNet, capable de mesurer la distance sémantique entre les compositions d’embeddings image-texte. Afin d’apprendre une composition image-texte efficace pour les données du domaine de la mode, notre modèle propose deux composants clés. Premièrement, le mécanisme de Livraison permet de réaliser une transition d’une image source dans l’espace d’embedding. Deuxièmement, le mécanisme de Balayage met en évidence les composants des images de mode liés à la requête dans l’espace d’embedding. Nous utilisons un mécanisme de gating par canal afin de rendre cela possible. Notre modèle unique surpasse les modèles d’état de l’art précédents, notamment TIRG et FiLM. Nous avons participé au premier défi Fashion-IQ organisé lors d’ICCV 2019, où une combinaison (ensemble) de notre modèle a atteint l’un des meilleurs résultats.