HyperAIHyperAI

Command Palette

Search for a command to run...

TDA : Apprendre à surajuster avec des modèles de diffusion conditionnelle

Shahar Lutati; Lior Wolf

Résumé

Nous présentons un modèle dynamique dans lequel les poids sont conditionnés par un échantillon d'entrée ( x ) et appris pour correspondre à ceux qui seraient obtenus en affinant un modèle de base sur ( x ) et son étiquette ( y ). Cette correspondance entre un échantillon d'entrée et les poids du réseau est approximée par un modèle de diffusion débruitante. Le modèle de diffusion que nous utilisons se concentre sur la modification d'une seule couche du modèle de base et est conditionné par l'entrée, les activations et la sortie de cette couche. Étant donné que le modèle de diffusion est intrinsèquement stochastique, plusieurs initialisations génèrent des réseaux différents, formant ainsi un ensemble, ce qui entraîne des améliorations supplémentaires. Nos expériences démontrent l'applicabilité large de la méthode pour la classification d'images, la reconstruction 3D, les données tabulaires, la séparation vocale et le traitement du langage naturel. Notre code est disponible à l'adresse suivante : https://github.com/ShaharLutatiPersonal/OCD


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp