
マルチタスク学習(Multi-task learning, MTL)は、関連する複数のタスクを同時に学習することで、それらの一般化性能を向上させることを目的としている。これに対して、現代のメタ学習(meta-learning)は、テストフェーズにおいてラベルが限られた未観測のタスクに対しても、迅速な適応を可能にするという点で、連合学習スキームとは異なるアプローチをとる。問題定式化の観点から見ると、MTLとメタ学習の間には微妙な違いがあるものの、両者の学習枠組みは共通の洞察に基づいている。すなわち、既存の学習タスク間の共有構造が、より優れた一般化および適応をもたらす可能性があるという点である。本論文では、理論的分析と実証的検証の両面から、この二つの学習枠組みの密接な関係をより深く理解するための重要な一歩を踏み出す。理論的には、まずMTLが勾配ベースメタ学習(gradient-based meta-learning, GBML)の一種と同一の最適化定式化を持つことを示す。さらに、パラメータ数が過剰で十分な深さを持つニューラルネットワークにおいて、MTLとGBMLが学習する予測関数は互いに近接していることを証明する。特に、この結果は、同じ未観測タスクに対して、両モデルが類似した予測を出力することを意味している。実証的には、適切な実装のもとで、MTLが複数の少サンプル画像分類ベンチマークにおいて、最先端のGBMLアルゴリズムと競合可能な性能を達成することを示すことで、理論的知見を裏付けている。既存のGBMLアルゴリズムはしばしば高コストな2次微分を伴う二段階最適化を必要とするが、本研究で提示する1次微分に基づくMTL手法は、mini-ImageNetのような大規模データセットにおいて、その処理速度が1桁以上高速である。本研究が、MTLとGBMLの間のギャップを埋める一助となることを期待し、迅速なタスク適応を可能にしつつ、計算効率の高いGBMLの代替手段を提供するものと確信している。