
要約
ディープクラスタリング手法は、クラスタリング損失と非クラスタリング損失を同時に最適化することで、表現学習とクラスタリングを統合する。このような手法では、深層ニューラルネットワークを用いて表現学習を行い、同時にクラスタリングネットワークを構築する。本研究では、クラスタリング性能を向上させるために従来の枠組みに従うのではなく、オートエンコーダーが学習する潜在表現のエンタングルメント(絡み合い)を最適化するより単純なアプローチを提案する。ここでエンタングルメントとは、同じクラスまたは構造に属する点のペアが、異なるクラスまたは構造に属する点のペアよりもどれだけ近接しているかを示す指標として定義する。データ点のエンタングルメントを測定するために、ソフトネアレストネイバー損失を用い、さらにアニーリング温度因子を導入して拡張した。提案手法を用いた実験結果では、MNISTデータセットにおいて96.2%、Fashion-MNISTデータセットで85.6%、EMNIST Balancedデータセットで79.2%のテストクラスタリング精度を達成し、ベースラインモデルを上回った。