Résolution de coreférance sans représentations d'intervalles

L’introduction des modèles de langage préentraînés a permis de réduire de nombreuses architectures complexes spécifiques à une tâche en des couches légères et simples. Une exception à cette tendance est la résolution de coreférence, où un modèle spécifique à la tâche sophistiqué est ajouté à un encodeur transformer préentraîné. Bien que très efficace, ce modèle présente une empreinte mémoire très importante — principalement due aux représentations dynamiquement construites de spans et de paires de spans — ce qui limite le traitement de documents complets et la capacité à entraîner plusieurs instances simultanément dans un même lot. Nous proposons un modèle léger et end-to-end pour la résolution de coreférence, qui élimine tout besoin de représentations de spans, de caractéristiques manuellement conçues ou de heuristiques. Notre modèle atteint des performances compétitives par rapport au modèle standard actuel, tout en étant plus simple et plus efficace.