Steigerung der Few-Shot-Lernleistung durch adaptiven Margin-Loss

Few-shot Learning (FSL) hat in den letzten Jahren zunehmende Aufmerksamkeit erhalten, bleibt jedoch aufgrund der inhärenten Schwierigkeit, aus wenigen Beispielen zu generalisieren, herausfordernd. In diesem Artikel wird ein adaptiver Margin-Prinzip vorgestellt, um die Generalisierungsfähigkeit metrikbasierter Meta-Lernansätze für Few-shot-Lernprobleme zu verbessern. Konkret entwickeln wir zunächst eine klassenrelevante additive Margin-Loss-Funktion, bei der die semantische Ähnlichkeit zwischen jeweils zwei Klassen berücksichtigt wird, um Proben im Merkmals-Embedding-Raum aus ähnlichen Klassen besser zu trennen. Darüber hinaus integrieren wir den semantischen Kontext aller Klassen innerhalb einer ausgewählten Trainingsaufgabe und entwickeln eine auf die Aufgabe abgestimmte additive Margin-Loss-Funktion, um Proben aus unterschiedlichen Klassen noch präziser zu unterscheiden. Unser adaptiver Margin-Ansatz lässt sich problemlos auf eine realistischere, generalisierte FSL-Situation erweitern. Umfangreiche Experimente zeigen, dass die vorgeschlagene Methode die Leistung aktueller metrikbasierter Meta-Lernansätze sowohl im standardmäßigen FSL- als auch im generalisierten FSL-Szenario signifikant steigert.