HyperAIHyperAI

Command Palette

Search for a command to run...

Diffusion-Modelle schlagen GANs bei der Bildsynthese

Prafulla Dhariwal Alex Nichol

Zusammenfassung

Wir zeigen, dass Diffusionsmodelle eine Bildqualität erreichen können, die die der derzeitigen State-of-the-Art generativen Modelle übertrifft. Bei der bedingungslosen Bildsynthese erreichen wir dies durch die Identifizierung einer besseren Architektur mittels einer Reihe von Ablationsstudien. Für die bedingte Bildsynthese verbessern wir die Bildqualität zusätzlich durch Klassifikator-Leitlinien: eine einfache, rechen-effiziente Methode, die es ermöglicht, durch Nutzung von Gradienten eines Klassifikators zwischen Vielfalt und Treue (Fidelity) zu trade-offen. Wir erreichen einen FID-Wert von 2,97 auf ImageNet 128×128, 4,59 auf ImageNet 256×256 und 7,72 auf ImageNet 512×512, und erreichen sogar BigGAN-deep, selbst bei lediglich 25 Vorwärtsdurchläufen pro Bild, wobei wir gleichzeitig eine bessere Abdeckung der Verteilung beibehalten. Schließlich stellen wir fest, dass Klassifikator-Leitlinien gut mit Upsampling-Diffusionsmodellen kombinierbar sind, wodurch der FID auf ImageNet 256×256 auf 3,94 und auf ImageNet 512×512 auf 3,85 weiter verbessert wird. Wir stellen unseren Code unter https://github.com/openai/guided-diffusion zur Verfügung.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp