HyperAIHyperAI

Command Palette

Search for a command to run...

Traduction d’images hypercomplexe d’image à image

Eleonora Grassucci Luigi Sigillo Aurelio Uncini Danilo Comminiello

Résumé

La traduction image à image (I2I) vise à transférer la représentation du contenu d’un domaine d’entrée vers un domaine de sortie, en s’adaptant à différents domaines cibles. Les modèles génératifs récents de I2I, qui obtiennent des résultats remarquables sur cette tâche, reposent sur un ensemble de réseaux profonds diversifiés, chacun comportant des dizaines de millions de paramètres. En outre, les images sont généralement tridimensionnelles, composées de canaux RGB, et les modèles neuronaux classiques ne prennent pas en compte les corrélations entre ces dimensions, entraînant ainsi une perte d’informations pertinentes. Dans cet article, nous proposons d’exploiter les propriétés de l’algèbre hypercomplexes afin de définir des modèles génératifs I2I légers capables de préserver les relations existantes entre les dimensions des images, permettant ainsi d’exploiter davantage les informations d’entrée. Sur plusieurs benchmarks I2I manifolds, nous démontrons que les modèles proposés, à savoir Quaternion StarGANv2 et StarGANv2 hypercomplexe paramétrable (PHStarGANv2), réduisent significativement le nombre de paramètres et la consommation de mémoire tout en assurant des performances élevées en traduction de domaine et une qualité d’image satisfaisante, mesurée par les scores FID et LPIPS. Le code complet est disponible à l’adresse suivante : https://github.com/ispamm/HI2I.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp