HyperAIHyperAI
il y a 2 mois

Formation de Modèles Complexes avec une Supervision Faible Multi-Tâches

Alexander Ratner; Braden Hancock; Jared Dunnmon; Frederic Sala; Shreyash Pandey; Christopher Ré
Formation de Modèles Complexes avec une Supervision Faible Multi-Tâches
Résumé

Alors que les modèles d'apprentissage automatique continuent de gagner en complexité, la collecte de grands ensembles de formation étiquetés manuellement est devenue l'un des plus grands obstacles pratiques. À la place, des formes plus faibles de supervision qui fournissent des étiquettes bruyantes mais moins coûteuses sont souvent utilisées. Cependant, ces sources de supervision faible ont des précisions diverses et inconnues, peuvent produire des étiquettes corrélées, et peuvent étiqueter différentes tâches ou s'appliquer à différents niveaux de granularité. Nous proposons un cadre pour intégrer et modéliser ces sources de supervision faible en les considérant comme étiquetant différentes sous-tâches connexes d'un problème, que nous appelons le contexte de supervision faible multi-tâche. Nous montrons qu'en résolvant un problème style complétion matricielle, nous pouvons retrouver les précisions de ces sources multi-tâche en fonction de leur structure de dépendance, sans aucune donnée étiquetée, ce qui conduit à une supervision de meilleure qualité pour former un modèle final. Théoriquement, nous démontrons que l'erreur généralisée des modèles formés avec cette approche s'améliore avec le nombre de points de données non étiquetés, et nous caractérisons l'évolution par rapport aux structures de tâches et de dépendances. Sur trois problèmes de classification fine-grained (细粒度分类), nous montrons que notre approche entraîne des gains moyens de 20,2 points en précision par rapport à une approche supervisée traditionnelle, 6,8 points par rapport à une base-line du vote majoritaire, et 4,1 points par rapport à une méthode précédemment proposée de supervision faible qui modélise les tâches séparément.