Co-Transport für klasseninkrementelles Lernen

Traditionelle Lernsysteme werden im geschlossenen Weltbild für eine festgelegte Anzahl von Klassen trainiert und erfordern im Voraus vorgesammelte Datensätze. In der Praxis treten jedoch ständig neue Klassen auf, die inkrementell gelernt werden müssen. Beispielsweise erscheinen in elektronischen Handelsplattformen täglich neue Produkttypen, und in sozialen Medien communities entstehen ständig neue Themen. Unter solchen Bedingungen sollten inkrementelle Modelle mehrere neue Klassen gleichzeitig erlernen, ohne vergessene alte Klassen zu verlieren. Wir beobachten eine starke Korrelation zwischen alten und neuen Klassen im inkrementellen Lernen, die genutzt werden kann, um verschiedene Lernphasen gegenseitig zu verknüpfen und zu fördern. Daraus leiten wir CO-transport für klassenbasiertes inkrementelles Lernen (COIL) ab, das die semantischen Beziehungen zwischen Klassen über inkrementelle Aufgaben hinweg nutzt. Konkret umfasst CO-transport zwei Aspekte: Prospektives Transportieren zielt darauf ab, den alten Klassifikator mit optimal transportiertem Wissen zu erweitern, um eine schnelle Modellanpassung zu ermöglichen. Retrospektives Transportieren dagegen versucht, Klassifikatoren für neue Klassen rückwärts in den Raum alter Klassen zu übertragen, um das Vergessen zu überwinden. Durch diese beiden Transportmechanismen adaptiert COIL effizient an neue Aufgaben und widersteht stabil dem Vergessen. Experimente an Benchmark- sowie realen Multimedia-Datensätzen bestätigen die Wirksamkeit unseres vorgeschlagenen Ansatzes.