HyperAIHyperAI

Command Palette

Search for a command to run...

Sonder la robustesse des modèles linguistiques pré-entraînés pour l’appariement d’entités

Davood Rafiei Ehsan Kamalloo Mehdi Akbarian Rastaghi

Résumé

Le paradigme du fine-tuning des modèles linguistiques pré-entraînés (PLM) s’est avéré efficace pour la correspondance d’entités (Entity Matching, EM). Malgré leurs performances remarquables, les PLM présentent une tendance à apprendre des corrélations artificielles à partir des données d’entraînement. Dans ce travail, nous nous proposons d’étudier si les modèles de correspondance d’entités basés sur les PLM peuvent être considérés fiables dans des applications du monde réel, où la distribution des données diffère de celle utilisée à l’entraînement. À cette fin, nous concevons un benchmark d’évaluation visant à mesurer la robustesse des modèles EM, afin de faciliter leur déploiement dans des contextes réels. Nos évaluations révèlent que le déséquilibre des données dans les jeux d’entraînement constitue un problème clé pour la robustesse. Nous constatons également que l’augmentation de données seule ne suffit pas à rendre un modèle robuste. À titre de remède, nous proposons des modifications simples pouvant améliorer la robustesse des modèles EM basés sur les PLM. Nos expérimentations montrent que, tout en offrant de meilleurs résultats en généralisation sur domaine, le modèle proposé améliore significativement la robustesse par rapport aux modèles de pointe en EM.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp