Meta-Learning-Initialisierungen für die Bildsegmentierung

Wir erweitern erste-Ordnung, modellunabhängige Meta-Lern-Algorithmen (einschließlich FOMAML und Reptile) auf die Bildsegmentierung, stellen eine neuartige neuronale Netzarchitektur vor, die für schnelles Lernen konzipiert ist und wir EfficientLab nennen, und nutzen eine formale Definition des Testfehlers von Meta-Lern-Algorithmen, um den Fehler bei Out-of-Distribution-Aufgaben zu reduzieren. Wir erreichen state-of-the-art-Ergebnisse auf dem FSS-1000-Datensatz, indem wir EfficientLab mit FOMAML meta-lernen und Bayesian Optimization einsetzen, um die optimalen Hyperparameter für die Adaptation zur Testzeit zu bestimmen. Zudem erstellen wir eine kleine Benchmark-Datensammlung, FP-k, zur empirischen Untersuchung der Leistung von Meta-Lern-Systemen sowohl im Few-Shot- als auch im Many-Shot-Szenario. Auf dem FP-k-Datensatz zeigen wir, dass meta-gelernte Initialisierungen für klassische Few-Shot-Bildsegmentierung von Wert sind, ihre Leistung jedoch bereits schnell durch herkömmliches Transfer-Lernen erreicht wird, wobei ab etwa 10 gelabelten Beispielen die Leistung gleich ist. Unser Code, das meta-gelernte Modell und das FP-k-Datenset sind unter https://github.com/ml4ai/mliis verfügbar.