
要約
マルチタスク学習は、高い性能と改善された汎化能力を持つニューラルネットワークの訓練に広く使用されている手法です。本論文では、計算量を低減しつつ、より良い汎化能力を達成するための背景クラスを提案します。これは、計算リソースが限られている研究者や組織にとって有益です。また、背景画像の選択方法について説明し、将来の潜在的な改善点についても議論します。我々は提案手法を複数のデータセットに適用し、大幅に低い計算量でより良い汎化能力を得ることに成功しました。訓練済みモデルのクラス活性化マッピング(CAMs)を通じて、提案されたモデル訓練手法により全体像を見ることへの傾向が観察されました。提案された背景クラスを使用したビジョントランスフォーマーを適用することで、CIFAR-10C、Caltech-101、およびCINIC-10データセットにおいて最先端(SOTA)の性能を達成しました。例スクリプトは以下のGitHubリポジトリの`CAM'フォルダで利用可能です:github.com/dipuk0506/UQ