HyperAIHyperAI

Command Palette

Search for a command to run...

GMem : Une approche modulaire pour des modèles génératifs ultraefficaces

Yi Tang Peng Sun Zhenglin Cheng Tao Lin

Résumé

Des études récentes indiquent que le processus de débruitage dans les modèles génératifs par diffusion profonds apprend implicitement et mémorise des informations sémantiques provenant de la distribution des données. Ces résultats suggèrent qu’obtenir une représentation plus complexe de la distribution des données nécessite des réseaux neuronaux de plus grande taille, entraînant une augmentation substantielle des exigences computationnelles, qui deviennent ainsi le principal goulot d’étranglement lors de l’entraînement et de l’inférence des modèles de diffusion. À cet effet, nous introduisons GMem : une approche modulaire pour des modèles génératifs ultra-efficaces. Notre méthode GMem déconnecte la capacité de mémoire du modèle lui-même et la réalise sous la forme d’un ensemble de mémoire séparé et immuable, qui préserve l’information sémantique essentielle contenue dans les données. Les résultats sont significatifs : GMem améliore à la fois l’efficacité de l’entraînement, celle de l’échantillonnage et la diversité de génération. Ce design réduit d’une part la dépendance du réseau vis-à-vis de la mémorisation de distributions de données complexes, améliorant ainsi à la fois l’efficacité d’entraînement et d’échantillonnage. Sur ImageNet à une résolution de 256×256256 \times 256256×256, GMem atteint une accélération d’entraînement de 50×50\times50× par rapport à SiT, obtenant un FID de 7,667,667,66 en moins de 282828 époques (4\sim 44 heures de temps d’entraînement), tandis que SiT nécessite 140014001400 époques. Sans guidance sans classificateur, GMem atteint une performance de pointe (SoTA) avec un FID de 1,531,531,53 en 160160160 époques, avec seulement 20\sim 2020 heures d’entraînement, surpassant ainsi LightningDiT, qui requiert 800800800 époques et 95\sim 9595 heures pour atteindre un FID de 2,172,172,17.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
GMem : Une approche modulaire pour des modèles génératifs ultraefficaces | Articles | HyperAI