الرؤية من خلال الضباب دون رؤية الضباب: الاندماج العميق للحساسات متعددة الوسائط في ظروف الطقس السيء غير المعروفة

الدمج بين تيارات المستشعرات متعددة الأوضاع، مثل قياسات الكاميرا والليدار والرادار، يلعب دورًا حاسمًا في اكتشاف الأجسام للمركبات ذاتية القيادة، والتي تعتمد في صنع قراراتها على هذه المدخلات. بينما تستغل الأساليب الحالية المعلومات الزائدة في ظروف بيئية جيدة، فإنها تفشل في الطقس السيء حيث يمكن تشويه تيارات المستشعرات بشكل غير متناظر. هذه السيناريوهات النادرة "الحالات الحدية" غير ممثلة في المجموعات المتاحة من البيانات، ولم يتم تصميم هياكل الدمج الحالية لمعالجة هذه الحالات. لمعالجة هذا التحدي، نقدم مجموعة بيانات جديدة متعددة الأوضاع تم الحصول عليها أثناء قيادة أكثر من 10,000 كيلومتر في شمال أوروبا. رغم أن هذه المجموعة هي أول مجموعة بيانات كبيرة متعددة الأوضاع في ظروف طقس سيئة، وتتضمن 100,000 تصنيف لقياسات الليدار والكاميرا والرادار والاستشعار بالأشعة تحت الحمراء المنظمة (NIR)، إلا أنها لا تسهل التدريب بسبب ندرة الطقس الشديد. لهذا الغرض، نقدم شبكة دمج عميقة لتحقيق دمج مستقر دون الحاجة إلى مكتبة كبيرة من البيانات المصنفة التي تغطي جميع التشوهات غير المتناظرة. نحن نقترح نموذجًا واحدًا يدمج الخصائص بشكل تكيفي بقيادة الإنتروبيا القياسية. لقد أجرينا التحقق من صحة الطريقة المقترحة، التي تم تدريبها على بيانات نظيفة، باستخدام مجموعتنا الواسعة من البيانات التحققية. الرمز والمعلومات متاحة هنا: https://github.com/princeton-computational-imaging/SeeingThroughFog.