HyperAIHyperAI
il y a 11 jours

Point Transformer

Hengshuang Zhao, Li Jiang, Jiaya Jia, Philip Torr, Vladlen Koltun
Point Transformer
Résumé

Les réseaux à attention auto-associative ont révolutionné le traitement du langage naturel et connaissent des progrès remarquables dans des tâches d’analyse d’image telles que la classification d’images et la détection d’objets. Inspirés par ces succès, nous étudions l’application des réseaux à attention auto-associative au traitement de nuages de points 3D. Nous concevons des couches d’attention auto-associative adaptées aux nuages de points et les utilisons pour construire des réseaux à attention auto-associative destinés à des tâches telles que la segmentation sémantique de scènes, la segmentation des parties d’objets et la classification d’objets. Notre architecture Point Transformer dépasse les travaux antérieurs sur divers domaines et tâches. Par exemple, sur le dataset S3DIS exigeant pour la segmentation sémantique à grande échelle, le Point Transformer atteint un mIoU de 70,4 % sur la zone 5, surpassant le meilleur modèle antérieur de 3,3 points de pourcentage absolus et franchissant pour la première fois le seuil de 70 % de mIoU.

Point Transformer | Articles de recherche récents | HyperAI