17日前

ORBIT:教示可能な物体認識のための現実世界におけるFew-Shotデータセット

Daniela Massiceti, Luisa Zintgraf, John Bronskill, Lida Theodorou, Matthew Tobias Harris, Edward Cutrell, Cecily Morrison, Katja Hofmann, Simone Stumpf
ORBIT:教示可能な物体認識のための現実世界におけるFew-Shotデータセット
要約

過去10年間、物体認識技術は著しい進展を遂げてきたが、依然として各物体カテゴリごとに多数の高品質な学習例に依存している。これに対して、少数の例から新しい物体を学習できる能力は、ロボティクスからユーザーのパーソナライズまで、多様な実用的応用を可能にする。しかし、これまでの少数ショット学習の研究の多くは、現実世界で展開される際の高い変動性を反映していないベンチマークデータセットに依拠してきた。このギャップを埋めるために、視覚障害者・視覚に障害のある人々がスマートフォンを使って教示可能な物体認識システムを学習するという現実世界の応用を背景に、ORBITデータセットおよびベンチマークを提案する。本データセットには、視覚障害者・視覚に障害のある人々が撮影した486種類の物体に関する合計3,822本の動画が含まれており、実際の使用状況に即した多様な変動を反映している。このベンチマークは、現実的かつ極めて困難な物体認識課題を反映しており、少数ショットかつ高変動条件下における耐性の向上を促進する豊かな研究環境を提供する。我々は、このベンチマークで初めて最先端の性能を達成し、さらなる革新の余地が極めて大きいことを示した。この成果は、視覚障害者・視覚に障害のある人々を支援するツールをはじめとする、幅広い現実世界の視覚応用に影響を与える可能性を秘めている。データセットは https://doi.org/10.25383/city.14294597 、ベンチマークコードは https://github.com/microsoft/ORBIT-Dataset にて公開している。