Einfache Transferlearning durch Ausnutzung intra-domänenstrukturierter Merkmale

Das Transfer-Lernen (Transfer Learning) strebt danach, Wissen von einem gut beschrifteten Bereich auf einen ähnlichen, aber anderen Bereich mit begrenzten oder gar keinen Beschriftungen zu übertragen. Leider erfordern die bestehenden lernbasierten Methoden oft eine intensivende Modellauswahl und Hyperparameter-Optimierung, um gute Ergebnisse zu erzielen. Darüber hinaus ist eine Kreuzvalidierung zur Anpassung der Hyperparameter nicht möglich, da im Zielfeld häufig keine Beschriftungen vorhanden sind. Dies würde die weitgehende Anwendbarkeit des Transfer-Lernens besonders in rechnerisch eingeschränkten Geräten wie tragbaren Geräten (wearables) einschränken. In dieser Arbeit schlagen wir einen praktischen Ansatz für einfaches Transfer-Lernen (EasyTL) vor, der weder eine Modellauswahl noch eine Optimierung der Hyperparameter erfordert und dennoch wettbewerbsfähige Leistungen erzielt. Durch die Ausnutzung innerbereichsspezifischer Strukturen ist EasyTL in der Lage, sowohl parameterfreie Transfermerkmale als auch Klassifikatoren zu lernen. Umfangreiche Experimente zeigen, dass EasyTL im Vergleich zu den besten herkömmlichen und tiefen Methoden das Prinzip der Ockhamschen Rasierklinge (Occam's Razor principle) erfüllt: Es ist extrem einfach zu implementieren und zu verwenden, während es vergleichbare oder bessere Leistungen in Bezug auf die Klassifikationsgenauigkeit und deutlich höhere Recheneffizienz erreicht. Zudem wird gezeigt, dass EasyTL die Leistungsfähigkeit bestehender Methoden zum Lernen von Transfermerkmalen verbessern kann.