HyperAIHyperAI
il y a 2 mois

Un Examen Plus Approfondi de la Classification à Partir de Peu d'Exemples

Wei-Yu Chen; Yen-Cheng Liu; Zsolt Kira; Yu-Chiang Frank Wang; Jia-Bin Huang
Un Examen Plus Approfondi de la Classification à Partir de Peu d'Exemples
Résumé

La classification à faible supervision vise à apprendre un classifieur capable de reconnaître des classes non vues pendant l'entraînement avec un nombre limité d'exemples étiquetés. Bien que des progrès significatifs aient été réalisés, la complexité croissante des architectures de réseau, des algorithmes d'apprentissage par méta-apprentissage et les différences dans les détails de mise en œuvre rendent une comparaison équitable difficile. Dans cet article, nous présentons 1) une analyse comparative cohérente de plusieurs algorithmes représentatifs de classification à faible supervision, dont les résultats montrent que des backbones plus profonds réduisent considérablement les écarts de performance entre les méthodes sur des jeux de données présentant des différences de domaine limitées, 2) une méthode de base modifiée qui atteint une performance compétitive lorsqu'elle est comparée aux méthodes les plus avancées sur les jeux de données \miniI et CUB, et 3) un nouveau cadre expérimental pour évaluer la capacité de généralisation inter-domaine des algorithmes de classification à faible supervision. Nos résultats révèlent que la réduction de la variabilité intra-classe est un facteur important lorsque le backbone des caractéristiques est peu profond, mais moins critique lorsque l'on utilise des backbones plus profonds. Dans un cadre d'évaluation inter-domaine réaliste, nous montrons qu'une méthode de base avec une pratique standard d'affinage (fine-tuning) se compare favorablement aux autres algorithmes d'apprentissage à faible supervision les plus avancés.