HyperAIHyperAI
vor 17 Tagen

PP-Matting: Hochgenaue Bildmatting natürlicher Bilder

Guowei Chen, Yi Liu, Jian Wang, Juncai Peng, Yuying Hao, Lutao Chu, Shiyu Tang, Zewu Wu, Zeyu Chen, Zhiliang Yu, Yuning Du, Qingqing Dang, Xiaoguang Hu, Dianhai Yu
PP-Matting: Hochgenaue Bildmatting natürlicher Bilder
Abstract

Natürliche Bild-Matting ist eine grundlegende und herausfordernde Aufgabe im Bereich des Computer-Vision. Sie findet zahlreiche Anwendungen in der Bildbearbeitung und -komposition. In jüngster Zeit haben tiefes Lernen-basierte Ansätze erhebliche Fortschritte bei der Bild-Matting-Genauigkeit erzielt. Allerdings erfordern die meisten dieser Ansätze eine vom Benutzer bereitgestellte Trimap als zusätzliche Eingabe, was die praktischen Anwendungen im echten Weltumfeld einschränkt. Obwohl einige trimapfreie Ansätze vorgeschlagen wurden, bleibt die Matting-Qualität im Vergleich zu trimapbasierten Methoden weiterhin unbefriedigend. Ohne die Führung durch eine Trimap leiden Matting-Modelle leicht unter der Ambiguität zwischen Vorder- und Hintergrund und erzeugen zudem verschwommene Details im Übergangsgebiet. In dieser Arbeit stellen wir PP-Matting vor, eine trimapfreie Architektur, die eine hochgenaue natürliche Bild-Matting ermöglicht. Unsere Methode integriert einen Hochauflösungs-Detailzweig (HRDB), der feinkörnige Details des Vordergrunds extrahiert, ohne die räumliche Auflösung der Merkmale zu verändern. Außerdem führen wir einen semantischen Kontextzweig (SCB) ein, der eine semantische Segmentierungsaufgabe nutzt. Dieser verhindert lokale Ambiguitäten bei der Detailvorhersage, die durch fehlende semantische Kontextinformationen verursacht werden könnten. Zudem führen wir umfangreiche Experimente auf zwei etablierten Benchmarks durch: Composition-1k und Distinctions-646. Die Ergebnisse belegen die Überlegenheit von PP-Matting gegenüber früheren Methoden. Darüber hinaus präsentieren wir eine qualitative Bewertung unserer Methode im Bereich der menschlichen Matting, die ihre herausragende Leistung in praktischen Anwendungen unterstreicht. Der Quellcode und vortrainierte Modelle werden unter PaddleSeg verfügbar sein: https://github.com/PaddlePaddle/PaddleSeg.