HyperAIHyperAI

Command Palette

Search for a command to run...

MMD-GANの訓練を改善するための反発損失関数の利用

Wei Wang Yuan Sun Saman Halgamuge

概要

生成対抗ネットワーク(GANs)はデータサンプリングプロセスの学習に広く使用されており、限られた計算リソース下ではその性能が損失関数に大きく依存する可能性があります。本研究では、最大平均分散(MMD)を損失関数として用いるMMD-GANを見直し、2つの貢献を行います。まず、既存のMMD損失関数が実際のデータの判別器出力を縮小しようとするため、データの微細な詳細の学習を阻害する可能性があると指摘します。この問題に対処するために、MMD内の項を単純に再配置することで実際のデータ間の差異を積極的に学習する反発型損失関数を提案します。次に、ヒンジ損失に着想を得て、反癬型損失関数を使用したMMD-GANの訓練を安定させるために有界ガウシアンカーネルを提案します。提案手法はCIFAR-10、STL-10、CelebA、およびLSUN bedroomデータセットにおける非監督画像生成タスクに適用されました。結果は、反癬型損失関数が追加的な計算コストなしでMMD損失を超えて大幅に改善し、他の代表的な損失関数よりも優れていることを示しています。提案手法は単一のDCGANネットワークとスペクトル正規化を使用してCIFAR-10データセット上でFIDスコア16.21を達成しました。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
MMD-GANの訓練を改善するための反発損失関数の利用 | 記事 | HyperAI超神経