ARMBench: Ein objektzentriertes Benchmark-Datenset für robotische Manipulation

Diese Arbeit stellt den Amazon Robotic Manipulation Benchmark (ARMBench) vor, einen großskaligen, objektzentrierten Benchmark-Datensatz für robotergestützte Manipulation im Kontext eines Warenhauses. Die Automatisierung von Vorgängen in modernen Lagern erfordert, dass ein robotischer Manipulator eine Vielzahl unterschiedlicher Objekte, unstrukturierte Lagerung und dynamisch verändernde Bestände bewältigen kann. Solche Bedingungen stellen erhebliche Herausforderungen hinsichtlich der Wahrnehmung von Objektidentität, physikalischen Eigenschaften und Zustand während der Manipulation dar. Bestehende Datensätze für robotergestützte Manipulation berücksichtigen lediglich eine begrenzte Anzahl von Objekten oder nutzen 3D-Modelle, um synthetische Szenen zu generieren, wobei jedoch die Vielfalt an Objekteigenschaften, Verwirrung (Clutter) und Interaktionen eingeschränkt erfasst werden kann. Wir präsentieren einen großskaligen Datensatz, der in einem Amazon-Warenhaus unter Verwendung eines robotischen Manipulators erfasst wurde, der Objekte aus Behältern mit heterogenem Inhalt isoliert. ARMBench umfasst Bilder, Videos und Metadaten zu über 235.000 Pick-and-Place-Aktivitäten an über 190.000 eindeutigen Objekten. Die Daten wurden zu verschiedenen Phasen der Manipulation erfasst, nämlich vor dem Aufheben (pre-pick), während des Transfers und nach der Platzierung (after placement). Aufgrund hochwertiger Annotationen werden Benchmark-Aufgaben vorgeschlagen, und Baseline-Ergebnisse für drei visuelle Wahrnehmungsherausforderungen werden präsentiert: 1) Objektsegmentierung in verwirrten Szenen, 2) Objektidentifikation und 3) Defekterkennung. ARMBench ist unter http://armbench.com zugänglich.