HyperAIHyperAI
منذ 3 أشهر

هل يعد GNN تناقضًا؟ إعادة النظر في GNN للإجابة على الأسئلة

Kuan Wang, Yuyu Zhang, Diyi Yang, Le Song, Tao Qin
هل يعد GNN تناقضًا؟ إعادة النظر في GNN للإجابة على الأسئلة
الملخص

تمثّل مسألة الإجابة على الأسئلة (QA) موضوعًا بحثيًا طويل الأمد في مجالات الذكاء الاصطناعي واللغة الطبيعية، وقد تم إجراء العديد من الدراسات لمحاولة تمكين أنظمة الإجابة على الأسئلة من امتلاك قدرات تفكير تشبه إلى حد كبير القدرة البشرية. ولمحاكاة عملية التفكير البشري المعقدة، تستخدم أنظمة QA الرائدة حاليًا نماذج لغوية مُدرّبة مسبقًا (LMs) للوصول إلى المعرفة المُشفرة داخل هذه النماذج، بالإضافة إلى وحدات مصممة بدقة باستخدام الشبكات العصبية الرسومية (GNNs) لتنفيذ عملية التفكير على الرسوم المعرفية (KGs). ومع ذلك، لا تزال هناك العديد من المشكلات المفتوحة المتعلقة بقدرات التفكير في هذه الوحدات المستندة إلى GNNs. هل يمكن لهذه الوحدات فعلاً إنجاز عمليات تفكير معقدة؟ وهل هي مبسطة جدًا أم مُعقدة أكثر من اللازم بالنسبة لمهام QA؟ وللتمكّن من فتح الصندوق الأسود الخاص بـ GNN واستكشاف هذه المشكلات، قمنا بتحليل الوحدات الرائدة حاليًا من نوع GNN المستخدمة في QA، وفحصنا قدرتها على التفكير. وخلصنا إلى أن حتى نموذج رسومي عصبي بسيط جدًا يمكنه تفوق جميع الوحدات الحالية من نوع GNN على مجموعتي بيانات تقييم شهيرتين: CommonsenseQA وOpenBookQA، وهما مجموعتا بيانات شائعتان تعتمدان بشدة على التفكير القائم على المعرفة. تُظهر أبحاثنا أن الوحدات الحالية من نوع GNN القائمة على المعرفة قد تكون قادرة فقط على تنفيذ بعض عمليات التفكير البسيطة مثل العد. وبقيت هذه المسألة مفتوحة وصعبة للغاية، وهي بناء وحدات شاملة للتفكير في أنظمة QA التي تعتمد على المعرفة.

هل يعد GNN تناقضًا؟ إعادة النظر في GNN للإجابة على الأسئلة | الأوراق البحثية | HyperAI