Großmaßstäbliches adversariales Repräsentationslernen

Adversarisch trainierte Generative Modelle (GANs) haben kürzlich überzeugende Ergebnisse bei der Bildsynthese erzielt. Trotz früherer Erfolge bei der Verwendung von GANs für die unüberwachte Darstellungslernung wurden sie seitdem von Ansätzen auf Basis der Selbstüberwachung abgelöst. In dieser Arbeit zeigen wir, dass Fortschritte in der Qualität der Bildgenerierung sich in erheblich verbesserten Leistungen bei der Darstellungslernung übersetzen. Unser Ansatz, BigBiGAN, basiert auf dem neuesten Stand der Technik des BigGAN-Modells und erweitert es durch Hinzufügen eines Encoders und Modifizieren des Diskriminators für die Darstellungslernung. Wir evaluieren die Darstellungslern- und Generierungsfähigkeiten dieser BigBiGAN-Modelle umfassend und demonstrieren, dass diese generierungsbasierenden Modelle den aktuellen Stand der Technik in der unüberwachten Darstellungslernung auf ImageNet sowie in bedingungsloser Bildgenerierung erreichen. Vortrainierte BigBiGAN-Modelle – einschließlich Bildgeneratoren und -encodern – sind auf TensorFlow Hub verfügbar (https://tfhub.dev/s?publisher=deepmind&q=bigbigan).