SPGroup3D : Réseau de regroupement de superpoints pour la détection d'objets 3D en intérieur

Les méthodes actuelles de détection d'objets 3D dans les scènes intérieures suivent principalement une stratégie de vote et de regroupement pour générer des propositions. Toutefois, la plupart de ces méthodes utilisent des regroupements indépendants des instances, tels que la requête par boule, entraînant une information sémantique incohérente et une régression imprecise des propositions. A cet effet, nous proposons un nouveau réseau de regroupement par superpoints pour la détection 3D d'objets en une seule étape, sans ancres, dans les scènes intérieures. Plus précisément, nous partitionnons d'abord les nuages de points bruts en superpoints de manière non supervisée, c’est-à-dire des régions présentant une cohérence sémantique et une similarité spatiale. Ensuite, nous concevons un module de vote sensible à la géométrie, qui s’adapte à la centralté dans la détection sans ancres en contrainant la relation spatiale entre les superpoints et les centres des objets. Par la suite, nous introduisons un module de regroupement basé sur les superpoints afin d’explorer une représentation cohérente au sein des propositions. Ce module inclut une couche d’attention sur les superpoints pour apprendre les interactions de caractéristiques entre superpoints voisins, ainsi qu’une couche de fusion superpoint-voxel pour propager les informations au niveau des superpoints vers le niveau des voxels. Enfin, nous utilisons une correspondance multiple efficace afin d’exploiter les champs réceptifs dynamiques des propositions basés sur les superpoints pendant l’entraînement. Les résultats expérimentaux montrent que notre méthode atteint des performances de pointe sur les jeux de données ScanNet V2, SUN RGB-D et S3DIS dans le cadre de la détection 3D d'objets en une seule étape pour les scènes intérieures. Le code source est disponible à l’adresse suivante : https://github.com/zyrant/SPGroup3D.