Sequentielle Faltung und Runge-Kutta-Residuen-Architektur für die Bildkompressionsabtastung

In den letzten Jahren haben tiefe neuronale Netze (Deep Neural Networks, DNN) die Komprimierte Abtastung (Compressed Sensing, CS) erheblich vorangetrieben und eine hohe Rekonstruktionsqualität sowie Geschwindigkeit erreicht, die traditionelle CS-Verfahren weit übertrifft. Dennoch gibt es noch zahlreiche Herausforderungen, die weiter erforscht werden müssen, bevor die Methode praktisch ausreichend anwendbar ist. In der CS bestehen zwei zentrale Probleme: einerseits die effiziente Datenerfassung und andererseits die Rekonstruktion von hochwertigen Bildern. Um diese beiden Herausforderungen anzugehen, wird in diesem Artikel ein neuartiges Runge-Kutta-Convolutionales Komprimierte-Sensing-Netzwerk (RK-CCSNet) vorgestellt. Im Erfassungsstadium wendet RK-CCSNet ein sequenzielles Faltungsmodul (Sequential Convolutional Module, SCM) an, um die Messwerte schrittweise durch eine Reihe von Faltungsfiltern zu verdichten. Im Rekonstruktionsstadium integriert RK-CCSNet einen neuartigen gelernten Runge-Kutta-Block (Learned Runge-Kutta Block, LRKB), der auf den bekannten Runge-Kutta-Verfahren basiert, und reformuliert den Prozess der Bildrekonstruktion als diskretes dynamisches System. Schließlich erreicht die Implementierung von RK-CCSNet state-of-the-art-Leistungen auf etablierten Benchmark-Datenbanken im Vergleich zu führenden Baseline-Methoden, und der gesamte Quellcode ist unter https://github.com/rkteddy/RK-CCSNet verfügbar.