2ヶ月前

Exemplar-free Class Incremental Learning via Discriminative and Comparable One-class Classifiers 例を用いないクラス増分学習における識別的かつ比較可能な一クラス分類器の利用

Sun, Wenju ; Li, Qingyong ; Zhang, Jing ; Wang, Danyu ; Wang, Wen ; Geng, Yangli-ao
Exemplar-free Class Incremental Learning via Discriminative and Comparable One-class Classifiers
例を用いないクラス増分学習における識別的かつ比較可能な一クラス分類器の利用
要約

例示なしクラス増分学習は、過去のサンプルを保持せずに新しいクラス知識を逐次的に学習する分類モデルを必要とします。最近、各カテゴリに対して独立して単一クラス分類器(OCC)を訓練する並列単一クラス分類器(POC)に基づくフレームワークが注目を集めています。これは、自然にカタストロフィックフォーリングを回避できるためです。しかし、POCは異なるOCCの独立訓練戦略により識別力と比較性が弱いという問題があります。この課題に対処するために、我々は新しいフレームワークである「増分学習用識別的かつ比較可能な単一クラス分類器(DisCOIL)」を提案します。DisCOILはPOCの基本的な原理に従いますが、他の確立された単一クラス分類器(例:深層SVDD)ではなく変分オートエンコーダー(VAE)を採用しています。これは、訓練済みのVAEが入力サンプルが特定のクラスに属する確率を特定するだけでなく、そのクラスの擬似サンプルも生成し、新しいタスクの学習を支援できるからです。この利点を利用して、DisCOILは古いクラスのVAEと対比させて新しいクラスのVAEを訓練します。これにより、新しいクラスのVAEは新しいクラスサンプルに対してより良い再構成を行い、古いクラスの擬似サンプルに対しては悪い再構成を行うことが強制され、比較性が向上します。さらに、DisCOILではヒンジ再構成損失を導入することで識別力を確保しています。我々はMNIST, CIFAR10, およびTiny-ImageNetで本手法を広範に評価しました。実験結果はDisCOILが最先端の性能を達成していることを示しています。

Exemplar-free Class Incremental Learning via Discriminative and Comparable One-class Classifiers 例を用いないクラス増分学習における識別的かつ比較可能な一クラス分類器の利用 | 最新論文 | HyperAI超神経