Command Palette
Search for a command to run...
التكميل البشري-الذكاء الاصطناعي: هدف للإشراف المُعزَّز
التكميل البشري-الذكاء الاصطناعي: هدف للإشراف المُعزَّز
Rishub Jain Sophie Bridgers Lili Janzer Rory Greig Tian Huey Teh Vladimir Mikulik
الملخص
يُعد التغذية الراجعة البشرية أمرًا بالغ الأهمية لتوافق أنظمة الذكاء الاصطناعي مع القيم البشرية. ومع تطور قدرات الذكاء الاصطناعي واستخدامه في تنفيذ مهام أكثر تعقيدًا، أصبح التحقق من الجودة والأمان أمرًا أكثر تحديًا. تتناول هذه الورقة كيفية الاستفادة من الذكاء الاصطناعي لتحسين جودة الرقابة البشرية. وتركز على مشكلة أمان مهمة تُعد بالفعل صعبة على البشر: التحقق من الحقائق في مخرجات الذكاء الاصطناعي. وتوصل الدراسة إلى أن الجمع بين تقييمات الذكاء الاصطناعي وتقييمات البشر، بناءً على درجة ثقة مُقيّم الذكاء الاصطناعي، يُفوق الاعتماد على أيٍّ منهما وحده. كما تُظهر النتائج أن تزويد البشر بمساعد ذكاء اصطناعي في التحقق من الحقائق يُحسّن دقة أداءهم، ولكن نوع المساعدة المقدمة له تأثير ملحوظ. فعند عرض تفسيرات الذكاء الاصطناعي ومستويات الثقة والتصنيفات، يُؤدي ذلك إلى اعتماد مفرط، في حين أن عرض نتائج البحث والدليل فقط يُشجع على تبني ثقة أكثر ملاءمة. تُشير هذه النتائج إلى تداعيات مهمة لفكرة "الرقابة المُعززة" (Amplified Oversight)، وهي التحدي المتمثل في دمج البشر والذكاء الاصطناعي لرقابة أنظمة الذكاء الاصطناعي، حتى حين تتجاوز هذه الأنظمة أداء الخبراء البشريين.