Repräsentations-Autoencoder
Representation Autoencoders (RAEs) wurden im Oktober 2025 von einem Team unter der Leitung von Assistenzprofessor Xie Saining an der New York University vorgeschlagen, und die entsprechenden Forschungsergebnisse wurden in der Arbeit „Diffusionstransformatoren mit Repräsentations-Autoencodern".
Repräsentations-Encoder (RAEs) ersetzen traditionelle Repräsentations-Encoder (VAEs) durch die Kombination eines vortrainierten Repräsentations-Encoders (wie DINO, SigLIP oder MAE) mit einem trainierten Decoder. Diese Modelle liefern hochwertige Rekonstruktionen und semantisch reichhaltige latente Räume und ermöglichen gleichzeitig skalierbare Transformer-Architekturen. Im Vergleich zu VAE-basierten Modellen erzielen RAEs eine schnellere Konvergenz und qualitativ hochwertigere Stichproben während des Latent Diffusion Trainings.
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.