Hohe-Bildtreue-Bild-Generierung-mit-weniger-Etiketten

Tiefe generative Modelle werden zu einem Eckpfeiler des modernen maschinellen Lernens. Kürzliche Arbeiten über bedingte generative adversäre Netzwerke haben gezeigt, dass das Lernen komplexer, hochdimensionaler Verteilungen über natürliche Bilder in greifbare Nähe gerückt ist. Obwohl die neuesten Modelle in der Lage sind, hochauflösende, vielfältige und naturgetreue Bilder zu erzeugen, hängen sie von einer großen Menge an etikettierten Daten ab. In dieser Arbeit zeigen wir, wie man von kürzlichen Fortschritten im Bereich des selbstüberwachten und halbüberwachten Lernens profitieren kann, um den aktuellen Stand der Technik sowohl bei der unüberwachten ImageNet-Synthese als auch im bedingten Szenario zu übertreffen. Insbesondere ist der vorgeschlagene Ansatz in der Lage, die Stichprobenqualität (gemäß FID) des aktuellen führenden bedingten Modells BigGAN auf ImageNet mit nur 10 % der Etiketten zu erreichen und es mit 20 % der Etiketten zu übertreffen.