Apprentissage par quelques exemples régularisé par le laplacien

Nous proposons une inférence transductive régularisée par le laplacien pour les tâches à peu d'exemples. Étant donné toute représentation fonctionnelle apprise à partir des classes de base, nous minimisons une fonction quadratique deffectuation binaire composée de deux termes : (1) un terme unaire qui affecte les échantillons de requête au prototype de classe le plus proche, et (2) un terme pair laplacien qui encourage les échantillons de requête voisins à recevoir des affectations de label cohérentes. Notre inférence transductive ne réentraîne pas le modèle de base, et peut être vue comme un regroupement par graphes de l’ensemble de requête, soumis à des contraintes de supervision issues de l’ensemble de support. Nous dérivons un optimiseur efficace sur le plan computationnel pour une relaxation de notre fonction, qui permet des mises à jour indépendantes (parallèles) pour chaque échantillon de requête tout en garantissant la convergence. Après une simple entraînement par entropie croisée sur les classes de base, et sans recourir à des stratégies complexes d’apprentissage méta, nous avons mené des expériences approfondies sur cinq benchmarks d’apprentissage à peu d’exemples. LaplacianShot surpasse de manière significative les méthodes de pointe dans divers modèles, configurations et jeux de données. En outre, notre inférence transductive est très rapide, avec des temps de calcul proches de ceux de l’inférence inductive, et peut être appliquée à des tâches à peu d’exemples à grande échelle.