FPNN: Field Probing Neural Networks für 3D-Daten

Die Erstellung diskriminativer Repräsentationen für 3D-Daten ist eine wichtige Aufgabe in der Forschung zu Computergrafik und Computervision. Faltungsneuronale Netze (CNNs) haben bei einer Vielzahl von Aufgaben gezeigt, dass sie bei 2D-Bildern sehr erfolgreich eingesetzt werden können. Die Erweiterung von Faltungsoperatoren auf den 3D-Bereich (3DCNNs) erscheint daher als ein plausibler und vielversprechender nächster Schritt. Leider wächst die rechnerische Komplexität von 3D-CNNs kubisch im Verhältnis zur Voxelauflösung. Darüber hinaus steigen die belegten Bereiche bei den meisten 3D-Geometrie-Repräsentationen nicht proportional mit der Größe der Diskretisierung, was zu verschwendeten Berechnungen führt. In dieser Arbeit stellen wir 3D-Räume als volumetrische Felder dar und schlagen ein neues Design vor, das Feldsondenfilter verwendet, um Merkmale effizient aus diesen Feldern zu extrahieren. Jeder Feldsondenfilter besteht aus einer Menge von Sondenpunkten – Sensoren, die den Raum wahrnehmen. Unser Lernalgorithmus optimiert nicht nur die Gewichte, die den Sondenpunkten zugeordnet sind, sondern auch ihre Positionen, was die Form der Sondenfilter verformt und sie adaptiv im 3D-Raum verteilt. Die optimierten Sondenpunkte erfassen den 3D-Raum „intelligent“, anstatt blind über das gesamte Gebiet zu operieren. Wir zeigen, dass Feldsonden erheblich effizienter als 3DCNNs sind und gleichzeitig state-of-the-art-Leistungen bei Klassifizierungsaufgaben für Benchmark-Datensätze zur 3D-Objekterkennung bieten.