Lernen von raumzeitlichen regularisierten Korrelationsfiltern für visuelle Verfolgung

Diskriminative Korrelationsfilter (DCF) sind effizient in der visuellen Verfolgung, leiden aber unter unerwünschten Randeffekten. Der räumlich regularisierte DCF (SRDCF) wurde vorgeschlagen, um dieses Problem durch die Einführung einer räumlichen Strafe auf die DCF-Koeffizienten zu lösen, was unvermeidbar die Verfolgungsleistung verbessert, jedoch auch die Komplexität erhöht. Um das Online-Updating zu bewältigen, formuliert SRDCF sein Modell auf mehreren Trainingsbildern, was weitere Schwierigkeiten bei der Effizienzsteigerung hinzufügt. In dieser Arbeit führen wir durch die Einführung von zeitlicher Regularisierung in den SRDCF mit einem einzelnen Sample unsere räumlich-zeitlich regularisierten Korrelationsfilter (STRCF) ein. Inspiriert durch den Online-Passive-Aggressive (PA)-Algorithmus, integrieren wir die zeitliche Regularisierung in den SRDCF mit einem einzelnen Sample, wodurch unsere räumlich-zeitlich regularisierten Korrelationsfilter (STRCF) entstehen. Die STRCF-Formulierung kann nicht nur als eine angemessene Approximation des SRDCF mit mehreren Trainingsbildern dienen, sondern bietet auch ein robusteres Erscheinungsmodell als SRDCF im Falle großer Erscheinungsänderungen. Darüber hinaus kann sie effizient durch die Methode der alternierenden Richtungsmultiplikatoren (ADMM) gelöst werden. Durch die Kombination von zeitlicher und räumlicher Regularisierung können unsere STRCF Randeffekte bewältigen, ohne dabei erhebliche Effizienzverluste zu verursachen, und erreichen eine überlegene Leistung im Vergleich zu SRDCF in Bezug auf Genauigkeit und Geschwindigkeit. Experimente wurden an drei Benchmark-Datensätzen durchgeführt: OTB-2015, Temple-Color und VOT-2016. Im Vergleich zu SRDCF bieten STRCF mit manuell gestalteten Merkmalen eine fünfmalige Beschleunigung und erreichen einen Anstieg des AUC-Werts von 5,4 % und 3,6 % auf OTB-2015 und Temple-Color jeweils. Zudem erzielen STRCF in Kombination mit CNN-Merkmalen vergleichbare Ergebnisse gegenüber den besten CNN-basierten Verfolgeralgorithmen und erreichen einen AUC-Wert von 68,3 % auf OTB-2015.