Command Palette
Search for a command to run...
Zerlegung von Multi-View-Silhouetten und -Tiefe für die Darstellung hochauflösender 3D-Objekte
Zerlegung von Multi-View-Silhouetten und -Tiefe für die Darstellung hochauflösender 3D-Objekte
Smith Edward Fujimoto Scott Meger David
Zusammenfassung
Wir betrachten das Problem der Skalierung tiefer generativer Formmodelle auf hohe Auflösung. Ausgehend von der kanonischen Ansichtsdarstellung von Objekten stellen wir eine neue Methode zur schnellen Upsampling von 3D-Objekten im Voxelraum vor, die Netzwerke nutzt, die die sechs orthographischen Tiefenprojektionen einer Szene einer Super-Resolution unterziehen. Dadurch können wir hochaufgelöste Objekte effizienter generieren als Methoden, die direkt im 3D-Raum arbeiten. Wir zerlegen das Problem der 2D-Tiefen-Super-Resolution in die Aufgaben der Silhouette- und der Tiefenprädiktion, um sowohl die Struktur als auch feine Details zu erfassen. Dies ermöglicht es unserem Ansatz, scharfe Kanten einfacher zu generieren als ein einzelnes Netzwerk. Wir evaluieren unsere Methode in mehreren Experimenten zu hochaufgelösten 3D-Objekten und zeigen, dass unser System in der Lage ist, neue Objekte mit Auflösungen bis hin zu 512×512×512 präzise vorherzusagen – die bisher höchste Auflösung, die für diese Aufgabe berichtet wurde. Wir erreichen den Stand der Technik bei der 3D-Objektrekonstruktion aus RGB-Bildern auf dem ShapeNet-Datensatz und demonstrieren zudem erstmals eine effektive Methode zur 3D-Super-Resolution.