10日前

BatchFormer:ロバストな表現学習のためのサンプル間関係の学習

Zhi Hou, Baosheng Yu, Dacheng Tao
BatchFormer:ロバストな表現学習のためのサンプル間関係の学習
要約

深層ニューラルネットワークの成功にもかかわらず、データ不足に起因する問題——たとえばデータの不均衡、未観測の分布、ドメインシフト——により、深層表現学習において依然として多くの課題が残っている。これらの問題に対処するために、従来のアプローチでは、入力または損失関数の観点からサンプル間の関係性を単純に探索する手法が多数提案されてきたが、深層ニューラルネットワークの内部構造を活用してサンプル関係性を学習するという視点には至っていなかった。この点に着目し、本研究では、深層ニューラルネットワーク自体がミニバッチごとにサンプル間の関係性を学習できる能力を備えることを提案する。具体的には、各ミニバッチのバッチ次元に適用可能な「バッチトランスフォーマー(BatchFormer)」モジュールを導入し、学習過程においてサンプル間の関係性を暗黙的に探索する。このアプローチにより、異なるサンプル間の協調学習が可能となり、たとえば、頻度の高いクラス(ヘッドクラス)のサンプルも、頻度の低いクラス(テールクラス)の学習に貢献する長尾認識の性能向上が実現される。さらに、学習とテストのギャップを軽減するため、BatchFormerを用いる/用いない場合の分類器を共通化し、テスト時にはBatchFormerを削除できるように設計している。本手法は10種類以上のデータセットで広範な実験を行い、長尾認識、構成的ゼロショット学習、ドメイン一般化、対照学習など、さまざまなデータ不足下の応用タスクにおいて、追加の補助機構を一切用いずに顕著な性能向上を達成した。コードはhttps://github.com/zhihou7/BatchFormerにて公開される予定である。

BatchFormer:ロバストな表現学習のためのサンプル間関係の学習 | 最新論文 | HyperAI超神経