RandLA-Net : Segmentations sémantique efficace de nuages de points à grande échelle

Nous étudions le problème du découpage sémantique efficace pour des nuages de points 3D à grande échelle. La plupart des approches existantes, qui reposent sur des techniques d'échantillonnage coûteuses ou sur des étapes de prétraitement/post-traitement intensives en calcul, ne peuvent être entraînées et fonctionner qu’avec des nuages de points de petite taille. Dans cet article, nous introduisons RandLA-Net, une architecture neuronale efficace et légère permettant d’inférer directement la sémantique par point pour des nuages de points à grande échelle. La clé de notre approche réside dans l’utilisation d’un échantillonnage aléatoire des points, au lieu de méthodes plus complexes de sélection de points. Bien que cet échantillonnage aléatoire soit remarquablement efficace en termes de calcul et de mémoire, il peut parfois éliminer par hasard des caractéristiques essentielles. Pour surmonter cet inconvénient, nous proposons un nouveau module d’agrégation de caractéristiques locales, permettant d’élargir progressivement le champ réceptif de chaque point 3D, préservant ainsi efficacement les détails géométriques. Des expériences étendues montrent que RandLA-Net peut traiter un million de points en une seule passe, avec une vitesse jusqu’à 200 fois supérieure à celle des approches existantes. De plus, RandLA-Net dépasse clairement les méthodes de pointe pour le découpage sémantique sur deux benchmarks à grande échelle : Semantic3D et SemanticKITTI.