HyperAIHyperAI

Command Palette

Search for a command to run...

Réseaux de Résidus Inversibles

Jens Behrmann Will Grathwohl Ricky T. Q. Chen David Duvenaud Jörn-Henrik Jacobsen

Résumé

Nous démontrons que les architectures standard de ResNet peuvent être rendues inversibles, permettant d'utiliser le même modèle pour la classification, l'estimation de densité et la génération. Généralement, l'imposition de l'inversibilité nécessite une partition des dimensions ou des restrictions sur les architectures de réseau. En revanche, notre approche ne requiert que l'ajout d'une étape de normalisation simple lors de l'entraînement, déjà disponible dans les frameworks standards. Les ResNets inversibles définissent un modèle génératif qui peut être entraîné par vraisemblance maximale sur des données non étiquetées. Pour calculer les vraisemblances, nous introduisons une approximation réalisable du logarithme du déterminant jacobien d'un bloc résiduel. Notre évaluation empirique montre que les ResNets inversibles se comparent favorablement aux classifieurs d'images de pointe et aux modèles génératifs basés sur les flux, ce qui n'avait jamais été réalisé auparavant avec une seule architecture.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp