Progressive Random Convolutions für die Generalisierung in einem einzigen Bereich

Die Single-Domain-Generalisierung zielt darauf ab, ein generalisierbares Modell mit nur einer Quelldomäne zu trainieren, um in beliebigen unbekannten Zieldomänen gut zu performen. Bildverstärkung basierend auf Random Convolutions (RandConv), die aus einer für jeden Minibatch zufällig initialisierten Faltungsschicht bestehen, ermöglicht es dem Modell, generalisierbare visuelle Repräsentationen zu lernen, indem lokale Texturen verzerrt werden, trotz ihrer einfachen und leichten Struktur. Allerdings hat RandConv strukturelle Einschränkungen: Die generierten Bilder verlieren leicht Semantik, wenn die Kernelsize zunimmt, und sie fehlt an der inhärenten Vielfalt einer einzelnen Faltungsvorgangs. Um dieses Problem zu lösen, schlagen wir eine Progressive Random Convolution (Pro-RandConv)-Methode vor, die zufällige Faltungsschichten mit kleiner Kernelsize rekursiv stapelt, anstatt die Kernelsize zu erhöhen. Dieser progressive Ansatz kann nicht nur semantische Verzerrungen durch Reduzierung des Einflusses von Pixeln außerhalb des Zentrums im theoretischen Rezeptionsfeld mildern, sondern auch effektivere virtuelle Domänen durch allmähliche Steigerung der Stilvervielfalt erzeugen. Darüber hinaus entwickeln wir eine grundlegende zufällige Faltungsschicht zu einem zufälligen Faltungsblock, der deformierbare Verschiebungen und affin-lineare Transformationen enthält, um Textur- und Kontrastvielfalt zu unterstützen; sowohl diese als auch die Schicht selbst werden zufällig initialisiert. Ohne komplexe Generatoren oder adversariales Lernen zeigen wir, dass unsere einfache aber effektive Verstärkungsstrategie den aktuellen Stand der Technik bei Benchmarks zur Single-Domain-Generalisierung übertrifft.