HyperAIHyperAI
il y a 11 jours

L'apprentissage multi-tâches comme un jeu de négociation

Aviv Navon, Aviv Shamsian, Idan Achituve, Haggai Maron, Kenji Kawaguchi, Gal Chechik, Ethan Fetaya
L'apprentissage multi-tâches comme un jeu de négociation
Résumé

Dans l'apprentissage multi-tâches (MTL), un modèle conjoint est entraîné pour effectuer simultanément des prédictions sur plusieurs tâches. L'entraînement conjoint réduit les coûts de calcul et améliore l'efficacité des données ; toutefois, comme les gradients associés à ces différentes tâches peuvent entrer en conflit, l'entraînement d'un modèle conjoint en MTL donne souvent des performances inférieures à celles de ses homologues à tâche unique. Une méthode courante pour atténuer ce problème consiste à combiner les gradients par tâche en une direction de mise à jour conjointe à l'aide d'une heuristique particulière. Dans cet article, nous proposons de considérer l'étape de combinaison des gradients comme un jeu de négociation, dans lequel les tâches négocient pour parvenir à un accord sur une direction conjointe de mise à jour des paramètres. Sous certaines hypothèses, ce problème de négociation admet une solution unique, connue sous le nom de Solution de Négociation de Nash, que nous proposons d'utiliser comme approche fondée pour l'apprentissage multi-tâches. Nous décrivons une nouvelle procédure d'optimisation pour le MTL, appelée Nash-MTL, et établissons des garanties théoriques concernant sa convergence. Expérimentalement, nous montrons que Nash-MTL atteint des résultats de pointe sur plusieurs benchmarks de MTL dans divers domaines.

L'apprentissage multi-tâches comme un jeu de négociation | Articles de recherche récents | HyperAI