Lernen, zu aktualisieren: Objektverfolgung mit einem rekurrenten Meta-Lerner

Das Modell-Update bildet den Kern der Objektverfolgung. Im Allgemeinen wird das Modell-Update als ein Online-Lernproblem formuliert, bei dem ein Zielmodell auf einem Online-Trainingsdatensatz gelernt wird. Unser wesentlicher Innovationsschritt besteht darin, das Modell-Update-Problem im Rahmen des Meta-Lernens zu formulieren und den Online-Lernalgorithmus selbst unter Verwendung großer Anzahlen von Offline-Videos zu lernen, d.h., Lernen, wie man updatet (learning to update). Der gelernte Updater nimmt den Online-Trainingsdatensatz als Eingabe entgegen und gibt ein aktualisiertes Zielmodell aus. Als erster Versuch gestalten wir den gelernten Updater auf der Basis von rekurrenten neuronalen Netzen (RNNs) und demonstrieren seine Anwendung in einem vorlagengestützten Tracker sowie in einem korrelationsfilterbasierten Tracker. Unser gelernter Updater verbessert die Basistracker konsistent und läuft schneller als Echtzeit auf GPU, während er während des Testens nur einen kleinen Speicherbedarf hat. Experimente mit Standard-Benchmarks zeigen, dass unser gelernter Updater übliche Update-Baselines übertrifft, darunter sowohl die effiziente exponentielle gleitende Mittelwert-(EMA-)basierte Aktualisierung als auch die gut konzipierte stochastische Gradientenabstiegs-(SGD-)basierte Aktualisierung. Ausgestattet mit unserem gelernten Updater erreicht der vorlagengestützte Tracker unter den Echtzeittrackern auf GPU Spitzenleistungen.