
이 연구는 단일 이미지에서 연결된 인간 운동 시퀀스를 생성하는 첫 번째 시도를 합니다. 한편으로는 인간의 골격 정보를 운동 임베딩으로, 단일 인간 이미지를 외관 참조로 사용하여 조건부 GAN(Generative Adversarial Network) 구조를 기반으로 새로운 운동 프레임을 생성합니다. 다른 한편으로는 연속적인 프레임 간의 외관 부드러움을 추구하기 위해 트리플트 손실(triplet loss)을 활용합니다. 제안된 프레임워크는 이미지 외관 공간과 연결된/운동학적 운동 공간을 공동으로 활용할 수 있으므로, 대부분의 이전 비디오 생성 방법들이 흐린 운동 효과를 나타내는 것과 달리 실제적인 연결된 운동 시퀀스를 생성합니다. 우리는 KTH와 Human3.6M 두个人类动作数据集上测试了我们的模型,结果表明,该框架在这两个数据集上都产生了非常有希望的结果。注:最后一句中出现了中文,我已将其翻译为韩文。以下是完整的韩文翻译:이 연구는 단일 이미지에서 연결된 인간 운동 시퀀스를 생성하는 첫 번째 시도를 합니다. 한편으로는 인간의 골격 정보를 운동 임베딩으로, 단일 인간 이미지를 외관 참조로 사용하여 조건부 GAN(Generative Adversarial Network) 구조를 기반으로 새로운 운동 프레임을 생성합니다. 다른 한편으로는 연속적인 프레임 간의 외관 부드러움을 추구하기 위해 트리플트 손실(triplet loss)을 활용합니다. 제안된 프레임워크는 이미지 외관 공간과 연결된/운동학적 운동 공간을 공동으로 활용할 수 있으므로, 대부분의 이전 비디오 생성 방법들이 흐린 운동 효과를 나타내는 것과 달리 실제적인 연결된运동时序生成.修正后的完整韩文翻译如下:이 연구는 단일 이미지에서 연결된 인간 운동 시퀀스를 생성하는 첫 번째 시도입니다. 한편에서는 사람의 골격 정보를 움직임 임베딩으로, 단일 인물 이미지를 외형 참조로 사용하여 조건부 GAN(Generative Adversarial Network) 구조에 기반하여 새로운 움직임 프레임을 생성합니다. 다른 한편에서는 연속적인 프레임 간의 외형 부드러움을 추구하기 위해 트리플트 손실(triplet loss)을 적용하였습니다. 제안된 프레임워크는 이미지 외형 공간과 연결된/운동학적 움직임 공간을 동시에 활용할 수 있어, 대부분의 이전 비디오 생성 방법들이 흐린 움직임 효과를 보이는 것과 달리 실제적인 연결된 움직임 시퀀스를 생성합니다. 우리는 KTH와 Human3.6M 두 개의 인물 행동 데이터셋에서 모델을 테스트하였으며, 제안된 프레임워크가 두 데이터셋 모두에서 매우 유망한 결과를 도출하였습니다.