Command Palette
Search for a command to run...
يُعد قياس التبعية المفرطة والتخفيف منها ضروريين لبناء ذكاء اصطناعي متوافق مع الإنسان
Lujain Ibrahim Katherine M. Collins Sunnie S. Y. Kim Anka Reuel Max Lamparth et al

الملخص
تميّز النماذج اللغوية الكبيرة (LLMs) عن التقنيات السابقة من خلال أدائها كشُركاء "مُفكّرين" تعاونيين، قادرين على التفاعل بسلاسة أكبر بلغة طبيعية. ومع التأثير المتزايد للنماذج اللغوية الكبيرة في اتخاذ قرارات ذات تداعيات جوهرية عبر مجالات متنوعة تشمل الرعاية الصحية والنصائح الشخصية، تزداد مخاطر الاعتماد المفرط – أي الاعتماد على هذه النماذج أكثر من حدود قدراتها الفعلية. ويدافع هذا المقال التحليلي عن ضرورة جعل قياس وخفض الاعتماد المفرط محورًا أساسيًا في أبحاث النماذج اللغوية الكبيرة وتطبيقاتها. أولاً، نُجمِع المخاطر الناتجة عن الاعتماد المفرط على المستويين الفردي والمجتمعي، بما في ذلك الأخطاء ذات الأبعاد الحاسمة، وصعوبات الحوكمة، والتدهور المعرفي في المهارات. ثم نستعرض الخصائص المميزة للنماذج اللغوية الكبيرة، وسمات تصميم الأنظمة، والتحيّزات المعرفية لدى المستخدمين، التي تُشكّل معًا مخاوف جادة وفريدة من نوعها فيما يتعلق بالاعتماد المفرط في الممارسة العملية. كما نستعرض النُهُج التاريخية لقياس الاعتماد المفرط، ونحدد ثلاث فجوات مهمة، ونقترح ثلاث مسارات واعدة لتحسين عملية القياس. وأخيرًا، نقدّم استراتيجيات للحد من هذه المخاطر يمكن لمجتمع بحوث الذكاء الاصطناعي اعتمادها لضمان أن تُعزز النماذج اللغوية الكبيرة القدرات البشرية بدلًا من تقويضها.
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.