Transfert de Modèles et de Données pour l'Étiquetage de Séquences en Contexte Croisé et à Ressources Nulles

Les approches de transfert croisé à zéro ressource visent à appliquer des modèles supervisés d'une langue source à des langues cibles non étiquetées. Dans cet article, nous menons une étude approfondie des deux principales techniques utilisées jusqu'à présent pour l'étiquetage séquentiel croisé à zéro ressource, basées soit sur le transfert de données, soit sur le transfert de modèle. Bien que les recherches précédentes aient proposé la traduction et la projection d'annotations (transfert croisé de données basé sur les données) comme une technique efficace pour l'étiquetage séquentiel croisé, dans cet article, nous démontrons expérimentalement que les modèles linguistiques multilingues à forte capacité appliqués dans un cadre zéro-shot (transfert croisé de modèle basé sur le modèle) surpassent constamment les approches de transfert croisé basées sur les données. Une analyse détaillée de nos résultats suggère que cela pourrait être dû à des différences importantes dans l'utilisation des langues. Plus précisément, la traduction automatique génère souvent un signal textuel différent de celui auquel les modèles sont exposés lorsqu'ils utilisent des données standards d'or, ce qui affecte tant le processus d'affinage que celui d'évaluation. Nos résultats indiquent également que les approches de transfert croisé basées sur les données restent une option compétitive lorsque des modèles linguistiques multilingues à forte capacité ne sont pas disponibles.