
要約
多目的学習における複数のタスクは、共同で解決され、それらの間で誘導バイアスが共有されます。多目的学習は、異なるタスクが競合するため、本質的に多目的問題であり、トレードオフが必要となります。一般的な妥協策は、各タスクの損失を重み付け線形結合で最小化する代理目標関数を最適化することですが、この方法はタスクが競合しない場合にのみ有効であり、それは稀であることが知られています。本論文では、多目的最適化として多目的学習を明示的に位置づけ、全体的な目標としてパレート最適解を見つけることを目指します。そのために、勾配ベースの多目的最適化に関する文献で開発されたアルゴリズムを使用します。これらのアルゴリズムは大規模な学習問題には直接適用できないため、勾配の次元とタスク数に比例して性能が悪化する傾向があります。そこで我々は、多目的損失の上限を提案し、これが効率的に最適化できることを示します。さらに、現実的な仮定のもとでこの上限を最適化することでパレート最適解を得られることを証明しました。我々の手法はデジタル分類、シーン理解(同時的な意味分割、インスタンス分割および深度推定)、およびマルチラベル分類など様々な多目的深層学習問題に適用されました。結果として、最近の多目的学習フォーミュレーションや個々のタスクでの訓練よりも高性能なモデルを生成することが確認されました。