HyperAIHyperAI

Command Palette

Search for a command to run...

Lernen von raumzeitlichen regularisierten Korrelationsfiltern für visuelle Verfolgung

Feng Li Cheng Tian Wangmeng Zuo Lei Zhang Ming-Hsuan Yang

Zusammenfassung

Diskriminative Korrelationsfilter (DCF) sind effizient in der visuellen Verfolgung, leiden aber unter unerwünschten Randeffekten. Der räumlich regularisierte DCF (SRDCF) wurde vorgeschlagen, um dieses Problem durch die Einführung einer räumlichen Strafe auf die DCF-Koeffizienten zu lösen, was unvermeidbar die Verfolgungsleistung verbessert, jedoch auch die Komplexität erhöht. Um das Online-Updating zu bewältigen, formuliert SRDCF sein Modell auf mehreren Trainingsbildern, was weitere Schwierigkeiten bei der Effizienzsteigerung hinzufügt. In dieser Arbeit führen wir durch die Einführung von zeitlicher Regularisierung in den SRDCF mit einem einzelnen Sample unsere räumlich-zeitlich regularisierten Korrelationsfilter (STRCF) ein. Inspiriert durch den Online-Passive-Aggressive (PA)-Algorithmus, integrieren wir die zeitliche Regularisierung in den SRDCF mit einem einzelnen Sample, wodurch unsere räumlich-zeitlich regularisierten Korrelationsfilter (STRCF) entstehen. Die STRCF-Formulierung kann nicht nur als eine angemessene Approximation des SRDCF mit mehreren Trainingsbildern dienen, sondern bietet auch ein robusteres Erscheinungsmodell als SRDCF im Falle großer Erscheinungsänderungen. Darüber hinaus kann sie effizient durch die Methode der alternierenden Richtungsmultiplikatoren (ADMM) gelöst werden. Durch die Kombination von zeitlicher und räumlicher Regularisierung können unsere STRCF Randeffekte bewältigen, ohne dabei erhebliche Effizienzverluste zu verursachen, und erreichen eine überlegene Leistung im Vergleich zu SRDCF in Bezug auf Genauigkeit und Geschwindigkeit. Experimente wurden an drei Benchmark-Datensätzen durchgeführt: OTB-2015, Temple-Color und VOT-2016. Im Vergleich zu SRDCF bieten STRCF mit manuell gestalteten Merkmalen eine fünfmalige Beschleunigung und erreichen einen Anstieg des AUC-Werts von 5,4 % und 3,6 % auf OTB-2015 und Temple-Color jeweils. Zudem erzielen STRCF in Kombination mit CNN-Merkmalen vergleichbare Ergebnisse gegenüber den besten CNN-basierten Verfolgeralgorithmen und erreichen einen AUC-Wert von 68,3 % auf OTB-2015.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Lernen von raumzeitlichen regularisierten Korrelationsfiltern für visuelle Verfolgung | Paper | HyperAI