Génération de requêtes structurées à partir du langage naturel par méta-apprentissage

Dans l'entraînement supervisé conventionnel, un modèle est formé pour s'adapter à tous les exemples d'entraînement. Cependant, disposer d'un modèle monolithique n'est pas toujours la meilleure stratégie, car les exemples peuvent varier considérablement. Dans cette étude, nous explorons un protocole d'apprentissage différent qui traite chaque exemple comme une tâche pseudo-unique, en réduisant le problème d'apprentissage initial à un scénario de méta-apprentissage à quelques exemples grâce à une fonction de pertinence dépendante du domaine. Lorsqu'il est évalué sur le jeu de données WikiSQL, notre approche conduit à une convergence plus rapide et réalise des gains absolus de précision de 1,1 % à 5,4 % par rapport aux méthodes ne faisant pas usage de méta-apprentissage.