
ドメイン一般化(Domain Generalization, DG)は、学習用(ソース)ドメインにおいてのみならず、未知のターゲットデータ分布に対しても良好な性能を発揮するモデルの学習を目的としている。DGにおける主要な課題の一つは、ソースドメインへの過学習を防ぐことである。この問題は、損失関数の形状(loss landscape)における平坦な極小値(flatter minima)に収束させることで緩和可能である。本研究では、ドメイン一般化のための量子化感知学習(Quantization-aware Training for Domain Generalization, QT-DoG)を提案し、重みの量子化が損失関数の形状において平坦な極小値を効果的に導くこと、すなわちドメイン一般化性能を向上させることを実証した。従来の量子化手法がモデル圧縮を目的としていたのに対し、QT-DoGは重みにノイズを導入することで、量子化を暗黙の正則化項として活用する。これにより最適化プロセスは、摂動や過学習に対してよりロバストな平坦な極小値へと誘導される。理論的考察と実証的実験の両面から、量子化が inherently 平坦な極小値を促進する性質を持っていることを示し、その結果、異なるドメイン間での一般化性能が向上することを明らかにした。さらに、量子化によるモデルサイズ削減の利点を活かし、複数の量子化モデルのアンサンブルを構成することで、計算コストやメモリ使用量の増加なしに、最先端のDG手法を上回る精度を達成することを示した。広範な実験により、QT-DoGが様々なデータセット、アーキテクチャ、量子化アルゴリズムに対して一般化可能であり、他のDG手法と組み合わせて使用可能なことから、その汎用性と堅牢性が確認された。