HyperAIHyperAI
منذ 2 أشهر

تعزيز LSTM للإدراك اللغوي الطبيعي

Qian Chen; Xiaodan Zhu; Zhenhua Ling; Si Wei; Hui Jiang; Diana Inkpen
تعزيز LSTM للإدراك اللغوي الطبيعي
الملخص

الاستدلال وال揄 الاستدلال والاستنتاج هما جوهر الذكاء البشري والذكاء الاصطناعي. نمذجة الاستنتاج في اللغة البشرية هي مهمة صعبة للغاية. ومع توفر كميات كبيرة من البيانات المُشَرَّحة (Bowman وآخرون، 2015)، أصبح من الممكن مؤخرًا تدريب نماذج استنتاجية تعتمد على الشبكات العصبية، والتي أثبتت فعاليتها بشكل كبير. في هذا البحث، نقدم نتيجة جديدة رائدة تحقق دقة بنسبة 88.6% على مجموعة بيانات استنتاج اللغة الطبيعية لجامعة ستانفورد. بخلاف النماذج الرائدة السابقة التي تستخدم هياكل شبكات معقدة للغاية، نوضح أولًا أن تصميم نماذج استنتاج متتابعة بدقة بناءً على سلاسل LSTM يمكن أن يتفوق على جميع النماذج السابقة. بناءً على هذا، نظهر أيضًا أنه من خلال النظر بوضوح إلى الهياكل المتكررة في كلٍ من نمذجة الاستنتاج المحلي وتجميع الاستنتاج، فإننا نحقق تحسينات إضافية. خصوصًا، فإن دمج معلومات التحليل النحوي يساهم في أفضل نتيجة لدينا---حيث يحسن الأداء حتى عند إضافته إلى النموذج القوي بالفعل.