
本論文では、タスク適応型事前学習モデル選択について研究しています。これは、目標のタスクに適した事前学習モデルを評価し、ファインチューニングを行わずにモデル・ズーから最良のものを選択するという未十分探索された問題です。いくつかの先行研究は、監督付き事前学習モデルを分類タスクに転移させる際のこの問題に取り組んでいますが、新しく出現している非監督付き事前学習モデルや回帰タスクには対応していません。実用的な評価方法を目指して、我々は事前学習モデルによって抽出された特徴量に基づいてラベル証拠の最大値を推定することを提案します。最大尤度とは異なり、最大証拠は\emph{過学習に対してロバスト}であり、我々が慎重に設計したアルゴリズムによりその計算コストが大幅に削減されます。\emph{LogME(Logarithm of Maximum Evidence)}は転移学習における事前学習モデルの評価に使用できます:高いLogME値を持つ事前学習モデルは、良好な転移性能を持つ可能性が高いです。LogMEは\emph{高速で正確かつ汎用性が高い}という特徴を持ち、これが初めて実用的な事前学習モデル評価手法であると言えます。全探索によるファインチューニングと比較すると、LogMEは壁時間で最大3000倍の高速化をもたらし、メモリ使用量も1%しか必要としません。既存の手法では大きなマージンで優れた性能を示しており、新しい設定にも適用可能です。多様な事前学習モデル(監督付きおよび非監督付き)、下流タスク(分類および回帰)、モダリティ(視覚および言語)に対して十分に汎用的です。コードは以下のリポジトリで公開されています:\href{https://github.com/thuml/LogME}{https://github.com/thuml/LogME}。