
要約
確率的推論のための目標分布からサンプルを抽出するストochasticニューラルネットワークの訓練に使用する単純なアルゴリズムを提案します。当手法は、ニューラルネットワークのパラメータを反復的に調整し、出力がステイン変分勾配(Stein variational gradient)に沿って変化することで、目標分布とのKLダイバージェンスを最大限に減少させるように設計されています。当手法は、未正規化密度関数で指定された任意の目標分布に対して適用可能であり、また我々が適応させたいパラメータに関して微分可能な任意のブラックボックスアーキテクチャを訓練することができます。当手法の応用として、ディープエネルギーモデルの訓練に使用する最尤推定(MLE)アルゴリズムのアモルティゼーション化を提案します。この場合、ニューラルサンプラは適応的に訓練され、尤度関数を近似することを目指します。当手法は、ディープエネルギーモデルとニューラルサンプラ間での敵対的なゲームを模倣しており、現実的な外観を持つ画像を得ることができ、最先端の結果と競合するものです。