
要約
オブジェクトを切り出し、透過マスクを推定する画像マットイングは、多くの画像編集アプリケーションにおいて重要なタスクである。ディープラーニングアプローチは、セグメンテーションネットワークのエンコーダデコーダアーキテクチャを適応させることで、顕著な進展を遂げてきた。しかし、既存の大多数のネットワークはαマット(透過度マップ)のみを予測しており、透明領域における元の前景および背景色を復元するためには後処理手法を別途用いる必要がある。近年、前景色の推定も行うことで性能が向上した二つの手法が提案されたが、その代償として計算コストおよびメモリ消費が著しく増加するという課題があった。本論文では、αマットイングネットワークに低コストな改良を加え、前景色および背景色の同時予測を可能にする手法を提案する。さらに、訓練戦略の変種を検討し、同時予測に適した既存および新規の損失関数の広範な探索を行う。提案手法は、Adobe Composition-1kデータセットにおけるαマットおよび合成色品質の評価で、現在の最先端性能を達成した。また、alphamatting.comで提供されるオンライン評価においても、現在最も優れた性能を発揮している。