تعلم التنبؤ بشكل المسار ثلاثي الأبعاد وموضع الكاميرا من صورة واحدة عبر قيود الهندسة

كشف المسارات ثلاثية الأبعاد من الكاميرا هو مشكلة ناشئة في مجال المركبات ذاتية القيادة. في هذه المهمة، يعتبر وضع الكاميرا الصحيح مفتاحًا لإنشاء مسارات دقيقة، والتي يمكن أن تحوّل الصورة من الرؤية المنظورية إلى الرؤية العلوية. بفضل هذا التحويل، يمكننا التخلص من آثار المنظور بحيث تبدو المسارات ثلاثية الأبعاد مشابهة ويمكن مطابقتها بدقة بواسطة متعددات الحدود من الدرجة الدنيا. ومع ذلك، تعتمد أجهزة كشف المسارات ثلاثية الأبعاد الرئيسية على وضع الكاميرا المثالي الذي توفره أجهزة استشعار أخرى، وهو أمر باهظ الثمن ويواجه مشاكل في ت head-to-head تكامل المستشعرات المتعددة (multi-sensor calibration). لحل هذه المشكلة، نقترح تقدير المسارات ثلاثية الأبعاد عن طريق تقدير وضع الكاميرا من صورة واحدة باستخدام إطار عمل ذو مرحلتين. المرحلة الأولى تستهدف مهمة تقدير وضع الكاميرا من الصور المنظورية. لتحسين تقدير الوضع، نقدم مهمة مساعدة للمسارات ثلاثية الأبعاد وقيود هندسية للاستفادة من التعلم متعدد المهام (multi-task learning)، مما يعزز التجانس بين البعد الثالث والبعد الثاني، بالإضافة إلى التوافق بين المهمتين السابقتين. المرحلة الثانية تستهدف مهمة المسار الثلاثي الأبعاد. فهي تستخدم الوضع المقدر سابقًا لإنشاء صور علوية تحتوي على مظهر للمسارات ثابت مع المسافة لتنبؤ المسارات ثلاثية الأبعاد بدقة. تظهر التجارب أن طريقة المقترحة لدينا تتفوق على أفضل الأساليب القائمة على وضع الكاميرا المثالي دون الحاجة إلى بيانات الحقيقة الأرضية لوضع الكاميرا، ولديها أقل عدد من المعالم والحسابات. يمكن الحصول على الشيفرات البرمجية من https://github.com/liuruijin17/CLGo.注:在阿拉伯语中,“head-to-head”通常不用于描述多传感器校准问题,因此这里翻译为“تكامل المستشعرات المتعددة”。如果需要更精确的技术术语,请提供进一步指导。