HyperAIHyperAI
vor 8 Tagen

AKDT: Adaptive Kernel Dilation Transformer für effektives Bildentrauschen

{Ciprian Orhei, Adrian Avram, Raul Balmez, Alexandru Brateanu}
Abstract

Bildrauschenentfernung ist eine grundlegende, jedoch herausfordernde Aufgabe, insbesondere bei hochauflösenden Bildern und komplexen Rauschmustern. Die meisten bestehenden Methoden basieren auf herkömmlichen Transformer-Architekturen, die oft hohe rechnerische Komplexität aufweisen und eine begrenzte Anpassungsfähigkeit an unterschiedliche Rauschpegel aufweisen. In diesem Artikel stellen wir den Adaptive Kernel Dilation Transformer (AKDT) vor, ein neuartiges, auf Transformers basierendes Modell, das die Macht lernbarer Dilatationsraten innerhalb von Faltungen voll ausschöpft. Der AKDT besteht aus mehreren Schichten und maßgeschneiderten Blöcken, darunter unsere neuartige Learnable Dilation Rate (LDR)-Modul, das zur Konstruktion eines Noise Estimator-Moduls (NE) verwendet wird. Im Kern des AKDT ist das NE nahtlos in standardmäßige Transformer-Komponenten integriert, um das Noise-Guided Feed-Forward Network (NG-FFN) und das Noise-Guided Multi-Headed Self-Attention (NG-MSA) zu bilden. Diese rauschgesteuerten Transformer-Komponenten ermöglichen es dem Modell, eine bisher unerreichte Rauschunterdrückungsleistung zu erzielen, während gleichzeitig die rechnerischen Kosten signifikant reduziert werden. Umfassende Experimente an mehreren Bildrauschenentfernungsbenchmarks zeigen, dass der AKDT einen neuen Stand der Technik etabliert und sowohl echtes als auch synthetisches Rauschen effektiv behandelt. Der Quellcode und vortrainierte Modelle sind öffentlich unter https://github.com/albrateanu/AKDT verfügbar.

AKDT: Adaptive Kernel Dilation Transformer für effektives Bildentrauschen | Neueste Forschungsarbeiten | HyperAI