HyperAIHyperAI

Command Palette

Search for a command to run...

Vorab trainierter Bildverarbeitungstransformer

Hanting Chen Yunhe Wang Tianyu Guo Chang Xu Yiping Deng Zhenhua Liu Siwei Ma Chunjing Xu Chao Xu Wen Gao

Zusammenfassung

Da die Rechenleistung moderner Hardware stark zunimmt, haben vortrainierte Deep-Learning-Modelle (z.B. BERT, GPT-3), die auf großen Datensätzen trainiert wurden, ihre Effektivität gegenüber herkömmlichen Methoden bewiesen. Der große Fortschritt ist hauptsächlich der Darstellungsfähigkeit von Transformer und dessen abgewandelten Architekturen zuzuschreiben. In dieser Arbeit untersuchen wir Aufgaben des niedrigstufigen Bildverarbeitens (z.B. Rauschreduzierung, Superresolution und Entfernung von Regen) und entwickeln ein neues vortrainiertes Modell, nämlich den Bildverarbeitungs-Transformer (IPT). Um die Fähigkeiten des Transformers maximal auszuschöpfen, schlagen wir vor, den bekannten ImageNet-Benchmark zu nutzen, um eine große Anzahl von beschädigten Bildpaaren zu generieren. Das IPT-Modell wird auf diesen Bildern mit mehreren Köpfen und Schwänzen trainiert. Zudem wird kontrastives Lernen eingeführt, um eine gute Anpassung an verschiedene Bildverarbeitungsaufgaben zu ermöglichen. Das vortrainierte Modell kann daher nach dem Feinjustieren effizient für die gewünschte Aufgabe eingesetzt werden. Mit nur einem vortrainierten Modell übertrifft IPT die aktuellen Stand-of-the-Art-Methoden in verschiedenen niedrigstufigen Benchmarks. Der Quellcode ist unter https://github.com/huawei-noah/Pretrained-IPT und https://gitee.com/mindspore/mindspore/tree/master/model_zoo/research/cv/IPT verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp