
Das Heraus schneiden eines Objekts und die Schätzung seiner Opazitätsmaske, auch Bildmatting genannt, ist eine zentrale Aufgabe in vielen Anwendungen des Bildbearbeitungsprozesses. Deep-Learning-Ansätze haben durch die Anpassung der Encoder-Decoder-Architektur von Segmentierungsnetzwerken erhebliche Fortschritte erzielt. Allerdings schätzen die meisten bestehenden Netzwerke lediglich die Alpha-Matte vor, wodurch anschließend Nachbearbeitungsmethoden erforderlich sind, um die ursprünglichen Vordergrund- und Hintergrundfarben in transparenten Regionen wiederherzustellen. Kürzlich haben zwei Methoden verbesserte Ergebnisse erzielt, indem sie zusätzlich die Vordergrundfarben schätzten – allerdings zu erheblichem Rechenaufwand und Speicherverbrauch.In diesem Paper stellen wir eine kostengünstige Modifikation von Alpha-Matting-Netzwerken vor, die zusätzlich die Vordergrund- und Hintergrundfarben vorhersagen. Wir untersuchen verschiedene Trainingsstrategien und erforschen eine breite Palette bestehender und neuer Verlustfunktionen für die gemeinsame Vorhersage. Unsere Methode erreicht die derzeit beste Leistung auf dem Adobe Composition-1k-Datensatz sowohl hinsichtlich der Qualität der Alpha-Matte als auch der zusammengesetzten Farben. Zudem ist sie derzeit die bestperformende Methode im Online-Bewertungssystem alphamatting.com.