T2M-GPT: توليد الحركة البشرية من الوصف النصي باستخدام تمثيلات منفصلة

في هذه الدراسة، نستعرض إطارًا توليديًا شرطيًا بسيطًا وشائعًا جدًا يستند إلى نموذج التشفير التبادلي المُعدّل بالمتغيرات (VQ-VAE) ونموذج التحويل التوليدية المُدرّب مسبقًا (GPT) لإنشاء حركة الإنسان من وصف نصي. نُظهر أن استخدام نموذج VQ-VAE مبني على شبكة عصبية تلافيفية بسيطة (CNN) مع وصف تدريب شائع (مثل التحديث التراكمي التلقائي EMA وتحديث الشفرات Code Reset) يُمكّننا من الحصول على تمثيلات منفصلة عالية الجودة. أما بالنسبة لنموذج GPT، فقد أدخلنا استراتيجية بسيطة للتلف أثناء التدريب لتقليل الفجوة بين التدريب والاختبار. وعلى الرغم من بساطته، يُظهر نموذج T2M-GPT أداءً أفضل من الطرق التنافسية، بما في ذلك الطرق الحديثة القائمة على التشتت (diffusion). على سبيل المثال، على مجموعة بيانات HumanML3D، التي تُعدّ حاليًا أكبر مجموعة بيانات متاحة، نحقق أداءً مماثلاً في الاتساق بين النص والحركة المولدة (مقاس R-Precision)، ولكن بقيمة FID تبلغ 0.116، متفوقةً بشكل كبير على نموذج MotionDiffuse الذي يبلغ FID فيه 0.630. علاوةً على ذلك، أجرينا تحليلات على مجموعة بيانات HumanML3D ولاحظنا أن حجم البيانات يُعدّ عائقًا يحدّ من أداء نهجنا. تشير هذه الدراسة إلى أن نموذج VQ-VAE لا يزال يُعدّ خيارًا تنافسيًا قويًا لإنشاء حركة الإنسان.