HyperAIHyperAI
vor 2 Monaten

Ein multimodaler Anomalieerkennungsdetektor für robotergestütztes Füttern unter Verwendung eines LSTM-basierten Variational Autoencoders

Daehyung Park; Yuuna Hoshi; Charles C. Kemp
Ein multimodaler Anomalieerkennungsdetektor für robotergestütztes Füttern unter Verwendung eines LSTM-basierten Variational Autoencoders
Abstract

Die Erkennung anomaler Ausführungen ist von großem Wert für die Reduzierung potenzieller Gefahren bei assistierender Manipulation. Multimodale sensorische Signale können hilfreich sein, um eine breite Palette von Anomalien zu erkennen. Die Fusion hochdimensionaler und heterogener Modalitäten stellt jedoch eine herausfordernde Aufgabe dar. Wir stellen einen auf Long Short-Term Memory (LSTM) basierten variationellen Autoencoder (LSTM-VAE) vor, der Signale fusioniert und ihre erwartete Verteilung rekonstruiert. Zudem führen wir einen LSTM-VAE-basierten Detektor ein, der auf einem rekonstruktionsbasierten Anomalienscore und einem zustandsbasierten Schwellenwert basiert. Bei Bewertungen mit 1.555 robotergestützten Fütterungsaktionen, einschließlich 12 repräsentativer Anomalietypen, erreichte unser Detektor einen höheren Flächeninhalt unter der Empfängnischarakteristik-Kurve (AUC) von 0,8710 im Vergleich zu fünf anderen Baseline-Detektoren aus der Literatur. Durch den Vergleich unseres Detektors mit 17 rohen sensorischen Signalen gegenüber 4 manuell entwickelten Merkmalen zeigen wir außerdem, dass die multimodale Fusion durch den LSTM-VAE effektiv ist.

Ein multimodaler Anomalieerkennungsdetektor für robotergestütztes Füttern unter Verwendung eines LSTM-basierten Variational Autoencoders | Neueste Forschungsarbeiten | HyperAI