초록
MaskedFusion은 RGB-D 데이터를 사용하여 객체의 6D 자세를 추정하는 프레임워크로, 여러 하위 작업을 파이프라인으로 활용하여 정확한 6D 자세를 달성합니다. 6D 자세 추정은 복잡한 실제 객체와 데이터 캡처 과정에서 발생할 수 있는 다양한 문제들(예: 가림, 절단, 데이터 노이즈) 때문에 여전히 해결되지 않은 도전 과제입니다. 정확한 6D 자세를 달성하면 로봇 그립이나 증강현실에서 객체 위치 결정 등 다른 미해결 문제들의 결과도 향상될 것입니다. MaskedFusion은 객체 마스크를 사용하여 관련 없는 데이터를 제거함으로써 기존 방법론을 개선합니다. 객체의 6D 자세를 추정하는 신경망에 마스크가 포함되면 객체 형태를 나타내는 특징들도 함께 얻을 수 있습니다. MaskedFusion은 각 하위 작업이 목적을 달성하기 위한 다양한 방법론을 가질 수 있는 모듈화된 파이프라인입니다. MaskedFusion은 LineMOD 데이터셋에서 ADD 메트릭을 사용해 평균 97.3%의 성능을, YCB-Video 데이터셋에서는 ADD-S AUC 메트릭을 사용해 93.3%의 성능을 달성했습니다. 이는 기존 최신 방법론들과 비교하여 개선된 결과입니다. 코드는 GitHub(https://github.com/kroglice/MaskedFusion)에서 제공됩니다.