HyperAIHyperAI
منذ 17 أيام

ORBIT: مجموعة بيانات واقعية قليلة الأمثلة للتعرف على الكائنات القابلة للتعليم

Daniela Massiceti, Luisa Zintgraf, John Bronskill, Lida Theodorou, Matthew Tobias Harris, Edward Cutrell, Cecily Morrison, Katja Hofmann, Simone Stumpf
ORBIT: مجموعة بيانات واقعية قليلة الأمثلة للتعرف على الكائنات القابلة للتعليم
الملخص

لقد حققت التعرف على الكائنات تقدماً كبيراً خلال العقد الماضي، لكنه ما زال يعتمد بشكل رئيسي على عدد كبير من الأمثلة عالية الجودة لكل فئة كائنية. في المقابل، يمكن أن يمكّن التعلم الكائنات الجديدة من عدد قليل جدًا من الأمثلة من تطوير تطبيقات ذات تأثير كبير، بدءاً من الروبوتات ووصولاً إلى تخصيص التجربة للمستخدم. ومع ذلك، فإن معظم أبحاث التعلم من عدد قليل من الأمثلة (few-shot learning) تم دفعها من خلال مجموعات بيانات معيارية (benchmarks) تفتقر إلى التنوّع العالي الذي ستواجهه هذه التطبيقات عند تنفيذها في العالم الحقيقي. ولسد هذه الفجوة، نقدّم مجموعة بيانات وبيئة تقييم تُسمى ORBIT، مبنية على تطبيق واقعي هو التعرف على الكائنات القابلة للتعليم لأولئك الذين يعانون من ضعف البصر أو العمى. تحتوي مجموعة البيانات على 3822 مقطع فيديو لـ 486 كائناً تم تسجيلها بواسطة أشخاص يعانون من ضعف البصر أو العمى باستخدام هواتفهم المحمولة. ويُمثّل التقييم بيئة واقعية وشديدة الصعوبة، ويُوفّر بيئة غنية لدفع الأبحاث المتعلقة بالقدرة على التحمل في ظل ظروف قليلة الأمثلة وتنوّع عالٍ. وقد حددنا أول حالة متطورة (state-of-the-art) في هذا التقييم، ونُظهر أن هناك مجالاً واسعاً للابتكار المستقبلي، مما يحمل إمكانية التأثير على مجموعة واسعة من التطبيقات الواقعية في مجال الرؤية الحاسوبية، بما في ذلك الأدوات المخصصة للمجتمعات المكفوفة أو ذوي البصر المنخفض. نُطلق مجموعة البيانات عبر الرابط: https://doi.org/10.25383/city.14294597، والكود الخاص ببيئة التقييم عبر: https://github.com/microsoft/ORBIT-Dataset.