Unüberwachtes Repräsentationslernen mit tiefen konvolutiven generativen adversären Netzen

In den letzten Jahren hat das überwachte Lernen mit Faltungsnetzen (CNNs) eine große Verbreitung in Anwendungen der Computer Vision gefunden. Im Gegensatz dazu erhielt das unüberwachte Lernen mit CNNs weniger Aufmerksamkeit. In dieser Arbeit hoffen wir, die Kluft zwischen dem Erfolg von CNNs im überwachten und im unüberwachten Lernen zu verringern. Wir stellen eine Klasse von CNNs vor, die als tiefe faltende generative adversarische Netze (DCGANs) bezeichnet werden, und die bestimmte architektonische Einschränkungen aufweisen. Wir zeigen, dass sie eine starke Kandidaten für das unüberwachte Lernen darstellen. Durch das Training auf verschiedenen Bild-Datensätzen präsentieren wir überzeugende Beweise dafür, dass unser tiefes faltendes adversarisches Paar eine Hierarchie von Repräsentationen von Objektteilen bis hin zu Szenen sowohl im Generator als auch im Diskriminator lernt. Zudem verwenden wir die gelernten Merkmale für neue Aufgaben – was ihre Anwendbarkeit als allgemeine Bildrepräsentationen demonstriert.