Zentrumssensitives adversariales Augmentieren für die Einzeldomänenverallgemeinerung

Domain Generalization (DG) zielt darauf ab, ein Modell aus mehreren Trainingsdomänen (sogenannten Quelldomänen) zu lernen, das gut auf unbekannte Testdaten (Zieldaten) generalisieren kann, die einer anderen Verteilung folgen. Die sogenannte Single Domain Generalization (SingleDG) ist kürzlich als Ansatz für eine anspruchsvollere, jedoch realistischere Situation entstanden, bei der zu Trainingszeit lediglich eine einzige Quelldomäne zur Verfügung steht. Die derzeitigen Single-DG-Methoden basieren typischerweise auf Datenverstärkungsstrategien und streben darauf ab, den Umfang der Quelddaten durch die Verstärkung von außerhalb der Domäne liegenden Proben zu erweitern. Im Allgemeinen sollen dabei schwierige, verwirrende Beispiele erzeugt werden, um den Klassifikator zu belasten. Obwohl dies die Robustheit des Klassifikators gegenüber kleinen Störungen erhöhen kann, sind die generierten Proben oft nicht vielfältig genug, um einen großen Domänenversatz realistisch nachzuahmen, was zu suboptimaler Generalisierungsleistung führt. Um dieses Problem zu mildern, schlagen wir eine zentrumsbewusste adversarische Datenverstärkungstechnik vor, die die Quelldistribution erweitert, indem die Quellproben so verändert werden, dass sie von den Klassenzentren weggeschoben werden, wobei eine neuartige winkelbasierte Zentrumslösung (angular center loss) eingesetzt wird. Wir führen umfangreiche Experimente durch, um die Wirksamkeit unseres Ansatzes an mehreren Benchmark-Datensätzen für Single-DG zu demonstrieren, und zeigen, dass unsere Methode in den meisten Fällen die bisherigen State-of-the-Art-Verfahren übertrifft.