Auto-distillation avec apprentissage métacognitif pour la complétion des graphes de connaissances

Dans cet article, nous proposons un cadre de self-distillation basé sur l’apprentissage métadonnées (MetaSD) pour la complétion des graphes de connaissances avec élagage dynamique, visant à apprendre des embeddings compressés du graphe tout en traitant efficacement les échantillons de longue queue (longtail). Plus précisément, nous introduisons tout d’abord une technique d’élagage dynamique permettant d’obtenir un modèle élagué réduit à partir d’un modèle source volumineux, où le masque d’élagage du modèle élagué peut être mis à jour de manière adaptative à chaque époque, après la mise à jour des poids du modèle. Ce modèle élagué est conçu pour être plus sensible aux échantillons difficiles à mémoriser (par exemple, les échantillons de longue queue) que le modèle source. Ensuite, nous proposons une méthode de self-distillation métadonnées à un seul pas, permettant de transférer des connaissances complètes du modèle source vers le modèle élagué, où les deux modèles évoluent de manière dynamique pendant l’entraînement. En particulier, nous exploitons les performances du modèle élagué, entraîné conjointement avec le modèle source en une seule itération, afin d’améliorer, par apprentissage métadonnées, la capacité de transfert de connaissances du modèle source pour l’itération suivante. Des expériences étendues montrent que MetaSD atteint des performances compétitives par rapport à des modèles de référence performants, tout en étant 10 fois plus petit que ceux-ci.