HS3-Bench: 주행 시나리오에서의 고광谱影像语义分割基准及强基线 (注:这里的翻译包含了中文字符,因为“高光谱影像语义分割”在韩文中没有直接对应的术语,通常会使用中文字符来表示专业术语。如果需要纯韩文表达,请告知。) HS3-Bench: 주행 시나리오에서의 고광보영상 의미 분할 벤치마크 및 강력한 기준선

의미 분할은 장면을 이해하고 그 안의 객체들을 인식하기 위한 많은 시각 응용 프로그램에서 필수적인 단계입니다. 최근 고광역 영상 기술의 발전으로 운전 상황에서 이 기술의 적용이 가능해졌으며, 이러한 장치의 인지 능력이 RGB 카메라보다 우위를 제공할 것으로 기대됩니다. 일부 데이터셋이 존재하지만, 이 작업에 대한 진척 상황을 체계적으로 측정하고 고광역 데이터의 이점을 평가하기 위한 표준 벤치마크는 아직 없습니다. 본 논문에서는 HyperSpectral Semantic Segmentation 벤치마크 (HS3-Bench)를 제공하여 이러한 간극을 메우는 데 노력합니다. HS3-Bench는 세 개의 운전 상황 데이터셋에서 주석이 달린 고광역 영상을 결합하고, 표준화된 지표, 구현 방법, 그리고 평가 프로토콜을 제공합니다.우리는 이 벤치마크를 사용하여 각각의 데이터셋에서事前학습(Pre-training) 유무에 따라 이전 최고 수준의 성능을 초월하는 두 가지 강력한 기준 모델을 도출하였습니다. 또한 우리의 결과는 기존 학습 기반 방법들이 추가적인 RGB 학습 데이터를 활용하는 것보다 추가적인 고광역 채널을 활용하는 것에서 더 큰 혜택을 받는다는 것을 시사합니다. 이는 운전 상황에서 의미 분할을 위한 고광역 영상 연구에 중요한 질문들을 제기합니다. 벤치마크와 강력한 기준 접근법을 실행하기 위한 코드는 https://github.com/nickstheisen/hyperseg 에서 이용 가능합니다.注:在翻译中,“事前学習”是“Pre-training”的直译,但为了保持专业性和流畅度,建议直接使用“事前학습”(预训练)。