Maximisation de la vraisemblance en ensemble ouvert pour l'apprentissage peu supervisé

Nous abordons le problème de la reconnaissance ouverte à faibles exemplaires (FSOSR), c’est-à-dire la classification d’instances parmi un ensemble de classes pour lesquelles nous ne disposons que de quelques échantillons étiquetés, tout en détectant simultanément les instances qui n’appartiennent à aucune classe connue. Nous explorons le cadre transductif couramment utilisé, qui exploite les instances non étiquetées du jeu de requêtes lors de l’inférence. Inspirés par l’observation selon laquelle les méthodes transductives existantes se comportent médiocrement dans les scénarios ouverts, nous proposons une généralisation du principe du maximum de vraisemblance, dans laquelle des scores latents, pénalisant l’influence des éventuels outliers, sont introduits aux côtés du modèle paramétrique habituel. Notre formulation intègre des contraintes de supervision issues de l’ensemble de support ainsi que des pénalités supplémentaires visant à réduire les prédictions trop confiantes sur le jeu de requêtes. Nous appliquons une descente par coordonnées bloc, en optimisant de manière alternée les scores latents et le modèle paramétrique, permettant ainsi à chacun de bénéficier de l’autre. Nous appelons la formulation résultante Optimisation de la Vraisemblance Ouverte (OSLO). OSLO est interprétable et entièrement modulaire ; elle peut être appliquée de manière transparente sur n’importe quel modèle pré-entraîné. À travers des expérimentations étendues, nous démontrons que notre méthode surpasser les approches inducives et transductives existantes sur les deux aspects de la reconnaissance ouverte : la classification des inliers et la détection des outliers.