Induktive Verzerrung in Transformatoren nutzen für die Klassifizierung und Segmentierung von Punktwolken

Die Entdeckung von Punktzusammenhängen für eine effiziente Hochdimensionale Merkmalsextraktion aus Punktkoordinaten ist eine zentrale Herausforderung bei der Verarbeitung von Punktwolken. Die meisten existierenden Methoden konzentrieren sich darauf, effiziente lokale Merkmalsextraktoren zu entwickeln, während sie globale Zusammenhänge vernachlässigen, oder umgekehrt. In dieser Arbeit entwerfen wir eine neue Methode des Induktiven Bias-gestützten Transformers (IBT), um 3D-Punktzusammenhänge zu lernen, die sowohl lokale als auch globale Aufmerksamkeit berücksichtigt. Insbesondere wird das lokale räumliche Kohärenz durch Relative Positionscodierung und Aufmerksames Merkmalspooling gelernt. Wir integrieren die erlernten lokalen Zusammenhänge in das Transformer-Modul. Das lokale Merkmal beeinflusst die Wertkomponente im Transformer, um die Beziehung zwischen den Kanälen jedes Punktes zu modulieren, was den Selbst-Aufmerksamkeitsmechanismus mit lokal basierter Kanalinteraktion verbessern kann. Wir zeigen seine Überlegenheit experimentell anhand von Klassifikations- und Segmentierungsaufgaben. Der Code ist unter folgender URL verfügbar: https://github.com/jiamang/IBT