Z-LaVI : Résolveur linguistique zéro-shot alimenté par l'imagination visuelle

Les grands modèles de langage préentraînés ont réalisé des avancées significatives dans la résolution de tâches de compréhension linguistique en aval. Cependant, ils souffrent généralement d'un biais de rapport, phénomène qui décrit l'absence de connaissances explicites du sens commun dans le texte écrit, par exemple, « une orange est orange ». Pour surmonter cette limitation, nous développons une nouvelle approche, Z-LaVI, visant à doter les modèles de langage de capacités d'imagination visuelle. Plus précisément, nous exploitons deux types complémentaires d'« imaginations » : (i) le rappel d'images existantes par recherche et (ii) la synthèse d'images inexistantes via la génération d'images à partir du texte. En combinant les entrées linguistiques et l'imagination, un modèle préentraîné vision-langage (par exemple, CLIP) compose finalement une solution zéro-shot pour les tâches linguistiques originales. Il convient de noter que l'alimentation des modèles de langage avec l'imagination peut utiliser efficacement les connaissances visuelles pour résoudre des tâches linguistiques simples. Par conséquent, Z-LaVI améliore constamment les performances zéro-shot des modèles de langage existants sur un ensemble varié de tâches linguistiques.