Command Palette
Search for a command to run...
يُعد قياس التبعية المفرطة والتخفيف منها ضروريين لبناء ذكاء اصطناعي متوافق مع الإنسان
يُعد قياس التبعية المفرطة والتخفيف منها ضروريين لبناء ذكاء اصطناعي متوافق مع الإنسان
Lujain Ibrahim Katherine M. Collins Sunnie S. Y. Kim Anka Reuel Max Lamparth et al
الملخص
تميّز النماذج اللغوية الكبيرة (LLMs) عن التقنيات السابقة من خلال أدائها كشُركاء "مُفكّرين" تعاونيين، قادرين على التفاعل بسلاسة أكبر بلغة طبيعية. ومع التأثير المتزايد للنماذج اللغوية الكبيرة في اتخاذ قرارات ذات تداعيات جوهرية عبر مجالات متنوعة تشمل الرعاية الصحية والنصائح الشخصية، تزداد مخاطر الاعتماد المفرط – أي الاعتماد على هذه النماذج أكثر من حدود قدراتها الفعلية. ويدافع هذا المقال التحليلي عن ضرورة جعل قياس وخفض الاعتماد المفرط محورًا أساسيًا في أبحاث النماذج اللغوية الكبيرة وتطبيقاتها. أولاً، نُجمِع المخاطر الناتجة عن الاعتماد المفرط على المستويين الفردي والمجتمعي، بما في ذلك الأخطاء ذات الأبعاد الحاسمة، وصعوبات الحوكمة، والتدهور المعرفي في المهارات. ثم نستعرض الخصائص المميزة للنماذج اللغوية الكبيرة، وسمات تصميم الأنظمة، والتحيّزات المعرفية لدى المستخدمين، التي تُشكّل معًا مخاوف جادة وفريدة من نوعها فيما يتعلق بالاعتماد المفرط في الممارسة العملية. كما نستعرض النُهُج التاريخية لقياس الاعتماد المفرط، ونحدد ثلاث فجوات مهمة، ونقترح ثلاث مسارات واعدة لتحسين عملية القياس. وأخيرًا، نقدّم استراتيجيات للحد من هذه المخاطر يمكن لمجتمع بحوث الذكاء الاصطناعي اعتمادها لضمان أن تُعزز النماذج اللغوية الكبيرة القدرات البشرية بدلًا من تقويضها.