Command Palette
Search for a command to run...
ManyDepth2: motionssensitiv selbstüberwachste monokulare Tiefenschätzung in dynamischen Szenen
ManyDepth2: motionssensitiv selbstüberwachste monokulare Tiefenschätzung in dynamischen Szenen
Kaichen Zhou Jia-Wang Bian Jian-Qing Zheng Jiaxing Zhong Qian Xie Niki Trigoni Andrew Markham
Zusammenfassung
Trotz Fortschritten in der selbstüberwachten monokularen Tiefenschätzung bestehen weiterhin Herausforderungen in dynamischen Szenarien aufgrund der Abhängigkeit von Annahmen über eine statische Welt. In diesem Paper präsentieren wir Manydepth2, um eine präzise Tiefenschätzung sowohl für dynamische Objekte als auch für statische Hintergründe zu erreichen, wobei gleichzeitig eine hohe rechnerische Effizienz gewahrt wird. Um den Herausforderungen durch dynamische Inhalte zu begegnen, integrieren wir optischen Fluss und grobe monokulare Tiefeninformationen, um einen pseudo-statischen Referenzrahmen zu erzeugen. Dieser Rahmen wird anschließend gemeinsam mit dem ursprünglichen Zielrahmen zur Erstellung eines bewegungsbeachtenden Kostenvolumens genutzt. Darüber hinaus schlagen wir ein auf Aufmerksamkeit basierendes Tiefennetzwerk vor, das Informationen aus Merkmalskarten unterschiedlicher Auflösungen effektiv durch die Kombination von Kanal- und nicht-lokalen Aufmerksamkeitsmechanismen integriert. Im Vergleich zu Methoden mit ähnlichen rechnerischen Kosten erreicht Manydepth2 eine signifikante Reduktion des mittleren quadratischen Fehlers um etwa fünf Prozent bei der selbstüberwachten monokularen Tiefenschätzung auf dem KITTI-2015-Datensatz. Der Quellcode ist unter https://github.com/kaichen-z/Manydepth2 verfügbar.