التعرف القوي على الكيانات المحددة باستخدام التدريب المسبق على التصحيح الحقيقي

على الرغم من الأداء المبهر لأنظمة التعرف على الكيانات المعرفة (NER) الحديثة على مجموعات البيانات القياسية، فإن أداؤها يضعف بشكل كبير عند مواجهة بيانات مشوهة أو غير دقيقة. وبشكل خاص، يُعد التبديل بين الأحرف الكبيرة والصغيرة إشارة قوية للكيانات في العديد من اللغات، حتى أن النماذج المتطورة حديثًا تتعرض للانحدار المفرط (Overfitting) تجاه هذه الخاصية، مما يؤدي إلى أداء متدني جدًا على النصوص التي لا تحتوي على أحرف كبيرة. في هذا العمل، نعالج مشكلة المقاومة (Robustness) لأنظمة NER في البيانات التي تتميز بحالة تبديل أحرف غير دقيقة أو غير مؤكدة، باستخدام هدف تدريب مسبق (pretraining objective) يُحدِّد حالة الأحرف في النص، أو ما يُعرف بـ "truecaser"، مع الاستفادة من البيانات غير المصنفة. يتم دمج truecaser المُدرَّب مسبقًا مع نموذج BiLSTM-CRF القياسي لـ NER من خلال إضافة توزيعات الناتج إلى تمثيلات الحروف (character embeddings). وبناءً على تجارب أجريت على عدة مجموعات بيانات متنوعة من حيث المجال والجودة في حالة الأحرف، نُظهر أن النموذج الجديد يُحسّن الأداء على النصوص غير المُكتوبة بأحرف كبيرة، بل وحتى يُضيف قيمة إلى تمثيلات BERT غير المُكتوبة بأحرف كبيرة. ويحقق هذا الأسلوب حالة جديدة من الأداء القياسي (state of the art) على مجموعة بيانات مسابقة WNUT17.