Memory-und-Antizipationstransformer für die Online-Aktionsverstehens capacità. 请注意,"capacità" 这个词在德语中并不适用,正确的翻译应该是 "Fähigkeit"。因此,更正后的翻译为: Memory-und-Antizipationstransformer für die Online-Aktionsverstehens-Fähigkeit.

Die meisten existierenden Vorhersagesysteme sind speicherbasierte Methoden, die versuchen, die menschliche Fähigkeit zur Prognose durch verschiedene Speichermechanismen nachzuahmen und dabei Fortschritte bei der zeitlichen Modellierung von Speicherabhängigkeiten erzielt haben. Dennoch ist eine offensichtliche Schwäche dieses Paradigmas, dass es nur begrenzte historische Abhängigkeiten modellieren kann und nicht über die Vergangenheit hinausgeht. In dieser Arbeit rekonstruieren wir die zeitliche Abhängigkeit der Ereignisentwicklung und schlagen ein neues Paradigma vor, das auf Speicher- und Antizipationsmechanismen basiert, um eine gesamte zeitliche Struktur zu modellieren, einschließlich Vergangenheit, Gegenwart und Zukunft. Auf Basis dieser Idee präsentieren wir den Memory-and-Anticipation Transformer (MAT), einen speicher- und antizipationsbasierten Ansatz, um Online-Aktionserkennung und -antizipation aufzunehmen. Zudem kann MAT dank seiner inhärenten Überlegenheit diese Aufgaben in einer einheitlichen Weise bearbeiten. Das vorgeschlagene MAT-Modell wurde anhand von vier anspruchsvollen Benchmarks getestet: TVSeries, THUMOS'14, HDD und EPIC-Kitchens-100, für die Aufgaben der Online-Aktionserkennung und -antizipation. Es übertrifft alle bisherigen Methoden erheblich. Der Quellcode ist unter https://github.com/Echo0125/Memory-and-Anticipation-Transformer verfügbar.