التدريب المتوازى لنماذج تمثيل المعرفة الرسومية: مقارنة بين التقنيات
تمثيل رسم المعرفة (KGE) يُمثل الكيانات والعلاقات في رسم المعرفة (KG) باستخدام تمثيلات كثيفة مستمرة تُعرف بـ "الإدراجات" (embeddings). وقد اكتسبت طرق KGE مؤخرًا شعبيةً في مهام مثل استكمال رسم المعرفة والاستنتاج، فضلًا عن توفير تمثيلات مناسبة للكيانات لمهام التعلم التالية. وعلى الرغم من أن جزءًا كبيرًا من الأدبيات المتاحة يركز على رسم المعرفة الصغيرة، فقد تم مؤخرًا اقتراح عدد من الإطارات القادرة على تدريب نماذج KGE على رسم المعرفة الضخمة من خلال التوازي عبر وحدات معالجة رسومية متعددة (GPU) أو أجهزة متعددة. حتى الآن، لم تُجرَ دراسة شاملة للإيجابيات والسلبيات الناتجة عن التقنيات المختلفة للتوازي. في هذا البحث، نقدم دراسة تجريبية حيث عرضنا، ونُفذنا مجددًا ضمن إطار حسابي موحد، ودرسنا، وحسّنّا التقنيات المتاحة. ووجدنا أن منهجيات التقييم المستخدمة في الدراسات السابقة غالبًا ما تكون غير قابلة للمقارنة، ويمكن أن تكون مضللة، وأن معظم طرق التدريب المُطبقة حاليًا تؤثر سلبًا على جودة الإدراجات. ونُقترح تنويعًا بسيطًا ولكن فعّالًا لتقنية التصنيف (stratification) المستخدمة في PyTorch BigGraph للتخفيف من هذه المشكلة. علاوةً على ذلك، يمكن أن يكون التقسيم العشوائي الأساسي خيارًا فعّالًا، بل وأحيانًا الأفضل من حيث الأداء عند دمجه مع تقنيات عينة مناسبة. في النهاية، وجدنا أن التدريب المتوازِي الفعّال والفعّال لنموذج KGE الضخم ممكن بالفعل، لكنه يتطلب اختيارًا دقيقًا للتقنيات.