Piggyback: Anpassen eines einzelnen Netzes an mehrere Aufgaben durch das Lernen von Gewichtsmasken

Diese Arbeit präsentiert eine Methode zur Anpassung eines einzelnen, festen tiefen neuronalen Netzes an mehrere Aufgaben, ohne die Leistung bei bereits gelernten Aufgaben zu beeinträchtigen. Indem wir Ideen aus der Netzwerkquantisierung und -verdünnung aufgreifen, lernen wir binäre Masken, die auf einem bestehenden Netzwerk "mitfahr" (piggyback) oder auf unveränderte Gewichte dieses Netzwerks angewendet werden, um eine gute Leistung bei einer neuen Aufgabe zu erzielen. Diese Masken werden in einem end-to-end differenzierbaren Verfahren gelernt und verursachen einen geringen Overhead von 1 Bit pro Netzwerkparameter und pro Aufgabe. Obwohl das zugrunde liegende Netzwerk fix ist, ermöglicht die Fähigkeit, einzelne Gewichte zu maskieren, das Lernen einer großen Anzahl von Filtern. Wir zeigen vergleichbare Leistungen mit dedizierten feinjustierten Netzen für eine Vielzahl von Klassifizierungsaufgaben, einschließlich solcher mit großen Domänenverschiebungen vom ursprünglichen Aufgabenbereich (ImageNet) und verschiedener Netzwerkarchitekturen. Im Gegensatz zu früheren Arbeiten leiden wir weder unter katastrophalischem Vergessen noch unter Wettbewerb zwischen den Aufgaben, und unsere Leistung ist unabhängig von der Reihenfolge der Aufgaben. Der Quellcode ist unter https://github.com/arunmallya/piggyback verfügbar.