Command Palette
Search for a command to run...
分布外検出の向上のための対照学習
分布外検出の向上のための対照学習
概要
分布外(Out-of-Distribution, OOD)入力の信頼性のある検出は、機械学習システムの実装にあたって不可欠な前提条件であることがますます認識されるようになっている。本論文では、対照学習(contrastive training)を用いてOOD検出性能を向上させる手法を提案し、その有効性を検証する。既存の主流のOOD検出手法とは異なり、本手法は明示的にOODとラベル付けされたサンプルの入手を必要としない。これは実際の場面では収集が困難な場合が多い。広範な実験を通じて、対照学習が多数の標準ベンチマークにおいてOOD検出性能を顕著に向上させることを示す。さらに、入力データと外れデータの分布間の類似度を捉えることで、OOD検出タスクの難易度を定量化する「混同対数尤度(Confusion Log Probability, CLP)スコア」を導入・活用することで、特に「近傍OOD(near OOD)」クラスにおける性能向上が顕著であることを明らかにした。これは従来の手法にとって極めて困難な設定である。