
要約
本研究では、データ分布の生成モデリングに用いるアルゴリズムとして、ジェネレーティブ・ラテント・フロー(Generative Latent Flow: GLF)を提案します。GLFは、オートエンコーダー(Auto-encoder: AE)を使用してデータの潜在表現を学習し、正規化フロー(normalizing flow)を用いて潜在変数の分布を単純な独立同分布(i.i.d.)ノイズの分布にマッピングします。他のAEベースの生成モデルとは異なり、これらのモデルはエンコードされた潜在分布が事前分布と一致するように様々な正則化項を使用しますが、当モデルはこれらの2つの分布間で明示的なマッピングを構築することで、より良い密度マッチングを実現しながら過度の正則化を避けることができます。当モデルは関連技術との比較を行い、多くの相対的な利点を持つことを示しています。それらには高速収束、一段階トレーニング、最小限の再構成トレードオフなどが含まれます。また、当モデルとその確率的対応物との関係についても考察し、当モデルがフロー事前分布を持つVAE(Variational Auto-encoder)のノイズ消失極限とみなすことができることを示しています。定量的に評価すると、標準的な評価手法において、当方法は一般的に使用されるデータセットでのAEベースのモデルの中でも最先端のサンプル品質を達成しており、GANs(Generative Adversarial Networks)のベンチマークとも競争力があります。