8日前

SoMA: ドメイン汎化表現学習のための特異値分解少数成分適応

Seokju Yun, Seunghye Chae, Dongheon Lee, Youngmin Ro
SoMA: ドメイン汎化表現学習のための特異値分解少数成分適応
要約

ドメイン一般化(Domain Generalization, DG)は、1つまたは複数のソースドメインを用いてモデルを適応させ、未観測のターゲットドメインにおいても堅牢な性能を発揮できるようにすることを目的としている。近年、基礎モデルにおけるパラメータ効率的微調整(Parameter-Efficient Fine-Tuning, PEFT)は、DG問題の文脈において有望な成果を示している。しかし、既存のPEFT手法は、事前学習モデルの一般化可能な構成要素を維持する一方で、タスク固有の特徴を学習するというバランスを十分に取れていないという課題を抱えている。本研究では、一般化可能な構成要素の分布を理解するため、特異値分解(Singular Value Decomposition, SVD)の視点から事前学習された重みを分析する。この知見を基に、特異値分解に基づく小規模成分の適応(Singular Value Decomposed Minor Components Adaptation, SoMA)を提案する。SoMAは、主成分を固定したまま、特異値が小さい成分のみを選択的に微調整するアプローチであり、事前学習モデルの一般化能力を効果的に保持しつつ、タスク固有のスキルを効率的に習得できる。さらに、ドメイン一般化可能なブロックを固定し、温度降下型の重み減衰戦略(annealing weight decay strategy)を採用することで、一般化性と識別性の微妙なトレードオフを最適に調整する。SoMAは、ドメイン一般化セマンティックセグメンテーションからドメイン一般化オブジェクト検出に至る複数のベンチマークにおいて、最先端の性能を達成している。また、本手法は推論時の追加オーバーヘッドや正則化損失を導入せず、あらゆるバックボーンやヘッドと互換性を保ち、多様なタスクに容易に統合可能な汎用性を備えている。