Command Palette
Search for a command to run...
表征自编码器 Representation Autoencoders
表征自编码器(Representation Autoencoders,RAE)是由纽约大学助理教授谢赛宁团队于 2025 年 10 月提出的,相关研究成果发表于论文「Diffusion Transformers with Representation Autoencoders」。
RAE 是利用一个预训练的表示编码器(如 DINO 、 SigLIP 或 MAE)与一个训练好的解码器进行组合,从而替代传统的 VAE 。该类模型既能提供高质量的重建,又能提供语义丰富的潜在空间,同时允许基于可扩展的变换器架构。与基于 VAE 的模型相比,RAE 在潜在扩散训练中实现了更快的收敛速度和更高质量的样本。