HyperAIHyperAI
il y a 11 jours

Résolution de coreférance sans représentations d'intervalles

Yuval Kirstain, Ori Ram, Omer Levy
Résolution de coreférance sans représentations d'intervalles
Résumé

L’introduction des modèles de langage préentraînés a permis de réduire de nombreuses architectures complexes spécifiques à une tâche en des couches légères et simples. Une exception à cette tendance est la résolution de coreférence, où un modèle spécifique à la tâche sophistiqué est ajouté à un encodeur transformer préentraîné. Bien que très efficace, ce modèle présente une empreinte mémoire très importante — principalement due aux représentations dynamiquement construites de spans et de paires de spans — ce qui limite le traitement de documents complets et la capacité à entraîner plusieurs instances simultanément dans un même lot. Nous proposons un modèle léger et end-to-end pour la résolution de coreférence, qui élimine tout besoin de représentations de spans, de caractéristiques manuellement conçues ou de heuristiques. Notre modèle atteint des performances compétitives par rapport au modèle standard actuel, tout en étant plus simple et plus efficace.

Résolution de coreférance sans représentations d'intervalles | Articles de recherche récents | HyperAI