11日前

教師なし異常検出のためのディープ自己符号化ガウス混合モデル

{Cristian Lumezanu, Wei Cheng, Qi Song, Daeki Cho, Bo Zong, Martin Renqiang Min, Haifeng Chen}
教師なし異常検出のためのディープ自己符号化ガウス混合モデル
要約

多次元または高次元データにおける教師なし異常検出は、基礎的な機械学習研究および産業応用において極めて重要な課題であり、その中心には密度推定が位置づけられている。これまでの手法は次元削減を経て密度推定を行うアプローチが採られてきたが、これらはモデル学習が分離された二段階プロセスであり、最適化目標が一貫性を欠き、低次元空間における本質的な情報の保持が困難であるという課題を抱えていた。本論文では、教師なし異常検出を目的とした深層自己符号化ガウス混合モデル(Deep Autoencoding Gaussian Mixture Model: DAGMM)を提案する。本モデルは、深層自己符号化器(deep autoencoder)を用いて各入力データポイントに対し低次元表現と再構成誤差を生成し、それをさらにガウス混合モデル(Gaussian Mixture Model: GMM)に供給する。従来の二段階の分離学習と標準的な期待値最大化(Expectation-Maximization: EM)アルゴリズムとは異なり、DAGMMは深層自己符号化器と混合モデルのパラメータをエンド・ツー・エンドの形で同時最適化する。これにより、混合モデルのパラメータ学習を支援する専用の推定ネットワークを活用している。この統合的最適化は、自己符号化の再構成性能、潜在表現の密度推定、正則化のバランスを適切に保つことで、自己符号化器が魅力的でない局所最適解に陥るのを回避し、再構成誤差をさらに低減する効果をもたらす。これにより、事前学習の必要性が排除される。複数の公開ベンチマークデータセットにおける実験結果から、DAGMMは最先端の異常検出手法を顕著に上回り、標準的なF1スコアに基づいて最大14%の性能向上を達成した。

教師なし異常検出のためのディープ自己符号化ガウス混合モデル | 最新論文 | HyperAI超神経