HYperbolische selbstgesteuerte Lernmethode für selbstüberwachte, auf Skeletten basierende Aktionsdarstellungen

Selbstgesteuertes Lernen hat sich als vorteilhaft erwiesen für Aufgaben, bei denen bereits einige Ausgangswissensbestände vorliegen, wie beispielsweise schwach überwachtes Lernen und Domänenanpassung, um die Trainingsbeispiele sequenziell auszuwählen und zu ordnen – von einfach zu komplex. Seine Anwendbarkeit bleibt jedoch in unsupervisiertem Lernen unerforscht, bei dem das Wissen über die Aufgabe während des Trainings erst reift. Wir stellen ein neuartiges HYperbolisches Selbstgesteuertes Modell (HYSP) zur Lernung skelettbasierter Aktionsdarstellungen vor. HYSP nutzt Selbstüberwachung: Es generiert durch Datenverzerrungen zwei Ansichten desselben Beispiels und lernt, indem es eine (Online-View) mit der anderen (Ziel-View) übereinstimmt. Wir schlagen vor, die hyperbolische Unsicherheit zur Bestimmung des Lernrhythmus des Algorithmus heranzuziehen, unter der Annahme, dass weniger unsichere Beispiele stärker das Training beeinflussen sollten, mit höherem Gewicht und schnellerem Lernschritt. Die hyperbolische Unsicherheit ist eine Nebenprodukt der eingesetzten hyperbolischen neuronalen Netze, reift während des Trainings heran und verursacht im Vergleich zu etablierten euklidischen SSL-Frameworks keinerlei zusätzliche Kosten. Bei Tests auf drei etablierten Datensätzen zur skelettbasierten Aktionserkennung übertrifft HYSP die State-of-the-Art-Leistung auf PKU-MMD I sowie auf zwei von drei nachgeschalteten Aufgaben auf NTU-60 und NTU-120. Zudem verwendet HYSP ausschließlich positive Paare und umgeht damit die komplexen und rechenintensiven Miningschritte für negative Paare, die bei kontrastiven Techniken erforderlich sind. Der Quellcode ist unter https://github.com/paolomandica/HYSP verfügbar.