RadarGNN: Transformationsinvarianter Graphen-Neuronaler-Netzwerk für radarbasierte Wahrnehmung

Eine zuverlässige Wahrnehmung muss robust gegenüber anspruchsvollen Umweltbedingungen sein. Daher konzentrieren sich jüngere Bemühungen darauf, neben Kameras und Lidar-Sensoren auch Radarsensoren für Anwendungen in der Wahrnehmung zu nutzen. Allerdings bleiben die Sparsamkeit der Radarpunktwolken und die geringe Datenverfügbarkeit herausfordernd für derzeitige Wahrnehmungsmethoden. Um diese Herausforderungen anzugehen, wird ein neuartiges Graphen-Neuronales Netzwerk vorgestellt, das nicht nur die Informationen der Punkte selbst, sondern auch die Beziehungen zwischen den Punkten nutzt. Das Modell berücksichtigt sowohl Punktmerkmale als auch Paarmerkmale von Punkten, die in den Kanten des Graphen eingebettet sind. Zudem wird ein allgemeiner Ansatz zur Erzielung von Transformationsinvarianz vorgeschlagen, der robust gegenüber unbekannten Szenarien ist und zudem der begrenzten Datenverfügbarkeit entgegenwirkt. Die Transformationsinvarianz wird durch eine invarianzbehaftete Datenrepräsentation erreicht, anstatt durch eine invarianzbehaftete Modellarchitektur, wodurch der Ansatz auf andere Methoden übertragbar ist. Das vorgeschlagene RadarGNN-Modell übertrifft alle vorherigen Ansätze auf dem RadarScenes-Datensatz. Zudem werden die Auswirkungen verschiedener Invarianzen auf die Qualität der Objekterkennung und semantischen Segmentierung untersucht. Der Quellcode wird als Open-Source-Software unter https://github.com/TUMFTM/RadarGNN bereitgestellt.