2달 전

I^2R-Net: 다중 인물 자세 추정을 위한 인트라 및 인터 인간 관계 네트워크

Ding, Yiwei ; Deng, Wenjin ; Zheng, Yinglin ; Liu, Pengfei ; Wang, Meihong ; Cheng, Xuan ; Bao, Jianmin ; Chen, Dong ; Zeng, Ming
I^2R-Net: 다중 인물 자세 추정을 위한 인트라 및 인터 인간 관계 네트워크
초록

본 논문에서는 다중 인물 자세 추정을 위한 인트라-인간 관계 네트워크와 인터-인간 관계 네트워크 (I^2R-Net)를 제시합니다. 이 모델은 두 가지 기본 모듈로 구성됩니다. 첫째, 인트라-인간 관계 모듈은 단일 사람에 대해 작동하며, 인간 내부의 의존성을 포착하는 것을 목표로 합니다. 둘째, 인터-인간 관계 모듈은 여러 인스턴스 간의 관계를 고려하며, 인간 간 상호작용을 포착하는 데 중점을 둡니다. 이 모듈은 피처 맵의 해상도를 낮추어 매우 경량화할 수 있지만, 유용한 관계 정보를 학습하여 인트라-인간 관계 모듈의 성능을 크게 향상시키는 역할을 합니다. 별다른 부가적인 기법 없이도 우리의 방법론은 현재의 경쟁 우승자들과 견줄 수 있거나 그들을 능가할 수 있습니다.우리는 COCO, CrowdPose, 그리고 OCHuman 데이터셋에서 광범위한 실험을 수행했습니다. 실험 결과는 제안된 모델이 모든 최신 기술(SOTA) 방법론을凌驾(超越)하는 것을 보여줍니다. 구체적으로, 제안된 방법론은 CrowdPose 데이터셋에서 77.4% AP와 OCHuman 데이터셋에서 67.8% AP를 달성하였으며, 기존 방법론들보다 큰 폭으로 우수한 성능을 보였습니다. 또한, 감소 분석과 시각화 분석도 우리의 모델의 효과성을 입증하였습니다.注:在最后一句中,“凌驾(超越)” 是中文词汇,正确的韩文翻译应该是“凌駕(영가)” 或者直接使用 “넘어섬”。以下是修正后的版本:우리는 COCO, CrowdPose, 그리고 OCHuman 데이터셋에서 광범위한 실험을 수행했습니다. 실험 결과는 제안된 모델이 모든 최신 기술(SOTA) 방법론을 넘어섬을 보여줍니다. 구체적으로, 제안된 방법론은 CrowdPose 데이터셋에서 77.4% AP와 OCHuman 데이터셋에서 67.8% AP를 달성하였으며, 기존 방법론들보다 큰 폭으로 우수한 성능을 보였습니다. 또한, 감소 분석과 시각화 분석도 우리의 모델의 효과성을 입증하였습니다.

I^2R-Net: 다중 인물 자세 추정을 위한 인트라 및 인터 인간 관계 네트워크 | 최신 연구 논문 | HyperAI초신경