HyperAIHyperAI
vor 2 Monaten

Kontextbezogene Aktionserkennung mit R*CNN

Georgia Gkioxari; Ross Girshick; Jitendra Malik
Kontextbezogene Aktionserkennung mit R*CNN
Abstract

In einem Bild gibt es mehrere Hinweise, die verraten, welche Aktion eine Person ausführt. Zum Beispiel hat ein Jogger eine fürs Joggen charakteristische Haltung, aber die Szene (z.B. Straße, Wanderweg) und die Anwesenheit anderer Jogger können eine zusätzliche Informationsquelle sein. In dieser Arbeit nutzen wir die einfache Beobachtung, dass Aktionen mit kontextuellen Hinweisen einhergehen, um ein leistungsfähiges System zur Aktionserkennung zu entwickeln. Wir passen RCNN so an, dass es mehr als einen Bereich für die Klassifizierung verwendet, während es gleichzeitig die Fähigkeit behält, die Aktion zu lokalisieren. Unser System nennen wir RCNN. Die aktionspezifischen Modelle und die Merkmalskarten werden gemeinsam trainiert, was es ermöglicht, aktionspezifische Darstellungen zu entwickeln. RCNN erreicht 90,2 % durchschnittliche AP auf dem PASCAL VOC Action-Datensatz und übertrifft alle anderen Ansätze im Feld deutlich. Schließlich zeigen wir, dass RCNN nicht nur auf die Aktionserkennung beschränkt ist. Insbesondere kann RCNN auch feingranulare Aufgaben wie Attributklassifizierung angehen. Diese Behauptung bestätigen wir durch den Bericht über Spitzenleistungen auf dem Berkeley Attributes of People-Datensatz.请注意,这里“R*CNN”是一个专有名词,因此在德语中也保持不变。其他专业术语如“AP”(平均精度)和“PASCAL VOC Action dataset”(PASCAL VOC动作数据集)也使用了通用的德语译法。

Kontextbezogene Aktionserkennung mit R*CNN | Neueste Forschungsarbeiten | HyperAI