Command Palette
Search for a command to run...
Cadre de curriculum multi-tâches pour l'apprentissage semi-supervisé à ensemble ouvert
Cadre de curriculum multi-tâches pour l'apprentissage semi-supervisé à ensemble ouvert
Qing Yu Daiki Ikami Go Irie Kiyoharu Aizawa
Résumé
L'apprentissage semi-supervisé (SSL) a été proposé afin d'exploiter les données non étiquetées pour entraîner des modèles puissants lorsque seules de faibles quantités de données étiquetées sont disponibles. Alors que les méthodes SSL existantes supposent que les échantillons présents dans les données étiquetées et non étiquetées partagent les mêmes classes, nous abordons une scénario plus complexe et novateur appelé SSL à ensemble ouvert (open-set SSL), dans lequel les données non étiquetées contiennent des échantillons hors distribution (OOD). Contrairement à l'approche classique consistant à entraîner séparément un détecteur OOD et un modèle SSL, nous proposons un cadre d'apprentissage par curriculum multi-tâches. Tout d'abord, afin de détecter les échantillons OOD dans les données non étiquetées, nous estimons la probabilité qu'un échantillon appartienne à une distribution hors norme. Nous utilisons un cadre d'optimisation conjointe, qui met à jour de manière alternée les paramètres du réseau et les scores OOD. Parallèlement, afin d'obtenir de hautes performances sur la classification des données in-distribution (ID), nous sélectionnons dans les données non étiquetées les échantillons ID présentant de faibles scores OOD, et utilisons ces échantillons conjointement avec les données étiquetées pour entraîner de manière semi-supervisée des réseaux de neurones profonds afin de classer les échantillons ID. Nous menons plusieurs expériences, et notre méthode atteint des résultats de pointe en éliminant efficacement l'effet des échantillons OOD.