HyperAIHyperAI

Command Palette

Search for a command to run...

背景情報を利用したクラス活性化の不確実性低減

H M Dipu Kabir

概要

マルチタスク学習は、高い性能と改善された汎化能力を持つニューラルネットワークの訓練に広く使用されている手法です。本論文では、計算量を低減しつつ、より良い汎化能力を達成するための背景クラスを提案します。これは、計算リソースが限られている研究者や組織にとって有益です。また、背景画像の選択方法について説明し、将来の潜在的な改善点についても議論します。我々は提案手法を複数のデータセットに適用し、大幅に低い計算量でより良い汎化能力を得ることに成功しました。訓練済みモデルのクラス活性化マッピング(CAMs)を通じて、提案されたモデル訓練手法により全体像を見ることへの傾向が観察されました。提案された背景クラスを使用したビジョントランスフォーマーを適用することで、CIFAR-10C、Caltech-101、およびCINIC-10データセットにおいて最先端(SOTA)の性能を達成しました。例スクリプトは以下のGitHubリポジトリの`CAM'フォルダで利用可能です:github.com/dipuk0506/UQ


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
背景情報を利用したクラス活性化の不確実性低減 | 記事 | HyperAI超神経