HyperAIHyperAI

Command Palette

Search for a command to run...

Tuning de prompt visuel

Menglin Jia Luming Tang Bor-Chun Chen Claire Cardie Serge Belongie Bharath Hariharan Ser-Nam Lim

Résumé

L’approche actuelle pour adapter les modèles pré-entraînés consiste à mettre à jour tous les paramètres du modèle principal, c’est-à-dire une fine-tuning complète. Ce papier présente Visual Prompt Tuning (VPT), une alternative efficace et performante à la fine-tuning complète pour les grands modèles Transformer en vision. Inspiré des récents progrès dans l’optimisation efficace des grands modèles linguistiques, VPT introduit uniquement une faible quantité de paramètres entraînables (moins de 1 % des paramètres du modèle) dans l’espace d’entrée, tout en maintenant le modèle principal gelé. À travers des expériences approfondies sur une large variété de tâches de reconnaissance en aval, nous démontrons que VPT atteint des gains de performance significatifs par rapport aux autres méthodes d’adaptation à faible coût en paramètres. Plus important encore, VPT surpasse même la fine-tuning complète dans de nombreux cas, quelle que soit la capacité du modèle ou l’échelle des données d’entraînement, tout en réduisant considérablement le coût de stockage par tâche.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp