Command Palette
Search for a command to run...
データ拡張なしで深層オンラインクラスタリングの崩壊を防ぐためのハード正則化
データ拡張なしで深層オンラインクラスタリングの崩壊を防ぐためのハード正則化
Louis Mahon Thomas Lukasiewicz
概要
オンライン深層クラスタリングとは、特徴抽出ネットワークとクラスタリングモデルを組み合わせて、新しいデータポイントやバッチが処理されるたびにクラスタラベルを割り当てる手法を指します。オフライン方法よりも高速で多様性が高い一方で、エンコーダーがすべての入力を同じ点にマッピングし、すべてのデータが単一のクラスターに属するという収束解に簡単に到達してしまうという問題があります。既存の成功したモデルでは、この問題を回避するために様々な技術が採用されており、その多くはデータ拡張が必要であるか、または各クラスターに対するデータセット全体での平均的なソフトアサインメントを均等にすることが目的となっています。我々はデータ拡張を必要とせず、既存の手法とは異なりハードアサインメントを正則化する方法を提案します。ベイジアンフレームワークを使用して、エンコーダーネットワークの学習に直接的に組み込むことができる直感的な最適化目標を導出しました。4つの画像データセットと1つのヒューマンアクティビティ認識データセットに対してテストを行った結果、他の手法よりもより堅牢に収束解を回避し、より正確なクラスタリングにつながることが確認されました。さらに、ハードクラスターアサインメントの正則化を選択した理由に関する追加実験と分析も行いました。コードは以下のURLから入手可能です: https://github.com/Lou1sM/online_hard_clustering.