Command Palette
Search for a command to run...
MUSES: مجموعة بيانات الإدراك الدلالي متعدد الحساسات للقيادة في ظروف عدم اليقين
MUSES: مجموعة بيانات الإدراك الدلالي متعدد الحساسات للقيادة في ظروف عدم اليقين
Tim Brödermann*1, David Bruggemann*1, Christos Sakaridis1, Kevin Ta1, Odysseas Liagouris1, Jason Corkill1, and Luc Van Gool1,2 * Equal contribution 1 ETH Zürich, Switzerland 2 INSAIT, Sofia Un., Bulgaria
الملخص
تحقيق التحكم الآلي من المستوى الخامس في المركبات ذاتية القيادة يتطلب نظامًا قويًا للاستشعار البصري الدلالي قادر على تحليل البيانات من أجهزة استشعار مختلفة في ظروف متنوعة. ومع ذلك، فإن معظم مجموعات البيانات الحالية للاستشعار الدلالي غالبًا ما تفتقر إلى الأجهزة غير الكاميرات التي يتم استخدامها عادةً في المركبات ذاتية القيادة، أو أنها لا تستغل هذه الأجهزة لمساندة وتحسين التسميات الدلالية في الظروف الصعبة. للتعامل مع هذا الأمر، نقدم MUSES (MUlti-SEnsor Semantic perception dataset)، وهي مجموعة بيانات الاستشعار الدلالي متعددة الأجهزة لقيادة المركبات في ظروف سلبية تحت درجة أعلى من عدم اليقين. تتضمن MUSES تسجيلات متزامنة متعددة الأجهزة مع تسميات بانورامية ثنائية الأبعاد لـ 2500 صورة تم التقاطها في ظروف جوية وإضاءة متنوعة. تقوم المجموعة بتجميع كاميرا الإطار، الليدار، الرادار، كاميرا الأحداث، ومستشعر IMU/GNSS. بروتوكول التسمية البانورامية ذو المرحلتين الجديد لدينا يلتقط عدم اليقين على مستوى الفئة وعلى مستوى الحالة في الحقيقة الأرضية ويتيح مهمة جديدة للتقطيع البانورامي الواعي بعدم اليقين التي نقدمها، بالإضافة إلى التقطيع الدلالي والبانورامي القياسي. تثبت MUSES فعاليتها في تدريب النماذج وفي تحدي تقييمها تحت ظروف بصرية متنوعة، كما أنها تفتح آفاقًا جديدة للبحث في الاستشعار الدلالي الكثيف متعدد الأجهزة والواعي بعدم اليقين. مجموعة البيانات والمقياس الخاصة بنا متاحة بشكل عام على الرابط https://muses.vision.ee.ethz.ch.