Gestapelte Was-Wo Autoencoder

Wir präsentieren eine neue Architektur, die „gestapelten Was-Wo-Autoencoder“ (SWWAE), die diskriminative und generative Pfade integriert und einen einheitlichen Ansatz für überwachtes, halbüberwachtes und unüberwachtes Lernen ohne Verwendung von Sampling während des Trainings bietet. Eine Instanzierung der SWWAE verwendet ein Faltungsnetz (Convnet) (LeCun et al. (1998)), um die Eingabe zu kodieren, und setzt ein Entfaltungsnetz (Deconvnet) (Zeiler et al. (2010)) ein, um die Rekonstruktion zu erzeugen. Die Zielfunktion enthält Rekonstruktions TERMS, die dazu führen, dass die verborgenen Zustände im Deconvnet denjenigen im Convnet ähnlich sind. Jede Pooling-Schicht erzeugt zwei Variablensätze: das „Was“, das an die nächste Schicht weitergeleitet wird, und dessen komplementäre Variable „Wo“, die an die entsprechende Schicht im generativen Decoder weitergeleitet wird.注释:在最后一句中,“Rekonstruktions TERMS”中的“TERMS”可能是一个笔误,根据上下文推测应为“Rekonstruktions terme”。为了保持译文的流畅性和准确性,我将其翻译为“Rekonstruktions TERME”,但建议核实原文是否确实为“TERMS”。