EvTexture: Ereignisgesteuerte Texturverbesserung für Videosuperauflösung

Die ereignisbasierte Vision hat aufgrund ihrer einzigartigen Eigenschaften, wie hoher zeitlicher Auflösung und hohem dynamischen Bereich, zunehmendes Interesse gefunden. Sie wurde kürzlich in der Videosuperauflösung (VSR) eingesetzt, um die Flussberechnung und die zeitliche Ausrichtung zu verbessern. Im Gegensatz zum Bewegungslernen schlagen wir in diesem Papier die erste VSR-Methode vor, die Ereignissignale zur Texturerhöhung nutzt. Unsere Methode, EvTexture genannt, nutzt die Hochfrequenzdetails von Ereignissen, um Texturbereiche in der VSR besser wiederherzustellen. In unserem EvTexture wird eine neue Texturerhöhungszweig vorgestellt. Wir führen außerdem ein iteratives Modul zur Texturerhöhung ein, das schrittweise die hochzeitlich-auflösenden Ereignisinformationen für die Texturrestauration auswertet. Dies ermöglicht eine allmähliche Verfeinerung der Texturbereiche über mehrere Iterationen hinweg, was zu genauereren und reicheren Hochauflösungsdetails führt. Experimentelle Ergebnisse zeigen, dass unser EvTexture auf vier Datensätzen den Stand der Technik erreicht. Für den Vid4-Datensatz mit reichen Texturen kann unsere Methode im Vergleich zu aktuellen ereignisbasierten Methoden einen Gewinn von bis zu 4,67 dB erzielen. Code: https://github.com/DachunKai/EvTexture.