HyperAIHyperAI

Command Palette

Search for a command to run...

Formation uniquement textuelle pour la légendage d'images à l'aide de CLIP injecté de bruit

David Nukrai Ron Mokady Amir Globerson

Résumé

Nous abordons la tâche de légendage d'images en utilisant uniquement le modèle CLIP et des données textuelles supplémentaires lors de l'entraînement, sans recourir à des images supplémentaires légendées. Notre approche repose sur le fait que CLIP est entraîné pour rendre les plongements visuels et textuels similaires. Par conséquent, nous n'avons besoin que d'apprendre comment traduire les plongements textuels de CLIP en texte, ce que nous pouvons faire en apprenant un décodeur pour l'encodeur de texte de CLIP figé, en utilisant uniquement du texte. Nous soutenons que cette intuition est « presque correcte » en raison d'un écart entre les espaces de plongement, et proposons de corriger cela par l'injection de bruit pendant l'entraînement. Nous démontrons l'efficacité de notre approche en montrant des résultats d'état de l'art (SOTA) pour le légendage d'images zéro-shot sur quatre benchmarks, y compris le transfert de style. Le code, les données et les modèles sont disponibles sur GitHub.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp