WARLearn: Wetteradaptives Darstellungslernen

Diese Arbeit stellt WARLearn vor, einen neuartigen Rahmenwerk für adaptives Repräsentationslernen unter herausfordernden und feindlichen Wetterbedingungen. Ausgehend vom Invarianzprinzip, das in Barlow Twins verwendet wird, zeigen wir die Fähigkeit, bestehende Modelle, die ursprünglich auf Daten aus klarem Wetter trainiert wurden, effektiv auf ungünstige Wetterbedingungen zu übertragen. Mit nur minimaler zusätzlicher Trainingszeit erreicht unsere Methode bemerkenswerte Leistungssteigerungen in Szenarien mit Nebel und schlechten Lichtverhältnissen. Dieser adaptive Rahmen erweitert seine Anwendbarkeit über die Grenzen adversarialer Wetterbedingungen hinaus und bietet eine vielseitige Lösung für Domänen mit variierenden Datensverteilungen. Darüber hinaus ist WARLearn besonders wertvoll in Szenarien, in denen sich die Datensverteilungen über die Zeit erheblich verändern, wodurch Modelle aktuell und präzise bleiben können. Unsere experimentellen Ergebnisse zeigen eine herausragende Leistung: Auf einem bisher unbekannten realen Datensatz mit Nebel (RTTS) erreichen wir eine mittlere Genauigkeit (mAP) von 52,6 %. Ähnlich erzielt unser Rahmenwerk bei schlechten Lichtverhältnissen eine mAP von 55,7 % auf einem bisher unbekannten realen Datensatz im Dunkel (ExDark). Auffällig ist, dass WARLearn die Leistung von State-of-the-Art-Methoden wie FeatEnHancer, Image Adaptive YOLO, DENet, C2PNet, PairLIE und ZeroDCE in adversarialen Wetterbedingungen deutlich übertrifft und sowohl im Nebel- als auch im Dunkel-Szenario die Basisleistung signifikant verbessert. Der Quellcode von WARLearn ist unter https://github.com/ShubhamAgarwal12/WARLearn verfügbar.