LYT-NET: Leichtgewichtige YUV-Transformer-basierte Netzwerkarchitektur zur Verbesserung von Bildern bei niedriger Beleuchtung

Dieser Brief stellt LYT-Net vor, ein neues, leichtgewichtiges Modell auf Basis von Transformatoren für die Verbesserung von Bildern bei schwachen Beleuchtungsbedingungen (Low-Light Image Enhancement, LLIE). LYT-Net besteht aus mehreren Schichten und abnehmbaren Blöcken, darunter unsere neuartigen Blöcke – Channel-Wise Denoiser (CWD) und Multi-Stage Squeeze & Excite Fusion (MSEF) – sowie den traditionellen Transformer-Blocken, wie dem Multi-Headed Self-Attention (MHSA). In unserer Methode verwenden wir einen dualen Pfadansatz, bei dem die Chrominanzkanäle U und V sowie der Luminanzkanal Y als separate Entitäten betrachtet werden, um das Modell bei der Beleuchtungsanpassung und der Korruptionsrekonstruktion effektiver zu unterstützen. Unsere umfassende Auswertung an etablierten LLIE-Datensätzen zeigt, dass unser Modell trotz seiner geringen Komplexität jüngste LLIE-Methoden übertrifft. Der Quellcode und die vortrainierten Modelle sind unter https://github.com/albrateanu/LYT-Net verfügbar.