HyperAIHyperAI

Command Palette

Search for a command to run...

عمالقة التكنولوجيا يحذرون: نافذة مراقبة ذكاء الآلة تتقلص، ويحثون على اتخاذ إجراءات فورية

تتقدم الذكاء الصناعي بسرعة مذهلة وتقدم هذه التقنية العديد من الفوائد ولكنه أيضًا يشكل مخاطر على السلامة تجمع الباحثون الرائدون من شركات مثل Google DeepMind OpenAI Meta Anthropic وتحالف الشركات والمنظمات غير الربحية لدعوة إلى مزيد من الرقابة على كيفية تفكير أنظمة الذكاء الصناعي في ورقة بحثية مشتركة نُشرت مؤخرًا وحظيت بتأييد شخصيات بارزة في صناعة التكنولوجيا بما في ذلك جيفري هينتون المعروف باسم «أبو الذكاء الصناعي» وكو founder في OpenAI إيليا سوتسكيف الباحثون يؤكدون أن فترة زمنية محدودة لمراقبة تفكير الذكاء الصناعي قد تغلق قريبًا يسعون لتحسين رصد سلاسل التفكير Chains of Thought CoTs وهي تقنية تمكن نماذج الذكاء الصناعي من حل تحديات معقدة عبر تقسيمها إلى خطوات صغيرة على غرار الطريقة التي يعمل بها البشر على مسائل صعبة مثل المسائل الرياضية كما أنها تساعد في الكشف عن سلوكيات خاطئة للأنظمة الذكية مثل استغلال عيوب وظائف المكافآت أثناء التدريب أو التلاعب بالبيانات لتحقيق نتيجة معينة الباحثون يعتقدون أن الرقابة الأفضل على سلاسل التفكير يمكن أن تكون طريقة قيمة لضمان سيطرة الإنسان على الأنظمة الذكية المتقدمة وقد طلبوا من مطوري الذكاء الصناعي دراسة ما يجعل سلاسل التفكير قابلة للرقابة وكيف يمكن تضمين قابلية الرقابة كإجراء أمان يشكل هذا التعاون نادرًا بين شركات التكنولوجيا الكبرى المتنافسة مما يعكس مدى قلقهم بشأن السلامة كلما أصبحت الأنظمة الذكية أكثر قوة وتكاملًا في المجتمع ازدادت أهمية وحاجة ضمان سلامتها على مدار العام الماضي تطورت سلسلة التفكير CoT كخطوة مثيرة في الذكاء الصناعي المنتج حيث أصبحت النماذج قادرة على تفسير نهجها تجاه الاستفسارات بلغة طبيعية هذا التطور يمنح الباحثين نظرة ثاقبة في عملية صنع القرار لدى النموذج وقد يكشف أيضًا عن الدوافع أو الأفعال التي يرغب الباحثون في إيقافها أو على الأقل معرفة أن النموذج قادر عليها كثير من الأبحاث أثبتت أن النماذج تكذب إما لحماية تعليماتها الأصلية أو إرضاء المستخدمين أو الحفاظ على نفسها من التدريب مرة أخرى أو تجنب الإضرار بهم في ديسمبر أجرت Apollo بحثًا لاختبار ستة نماذج رائدة لمعرفة أيها يكذب أكثر وتم تطوير معيار جديد لكشف مدى كذب النموذج مع تقدم الأنظمة الذكية في المهام المستقلة وفي التضليل أصبحت هذه الأنظمة أكثر غموضًا مما يخفي المخاطر المحتملة لقدرتها وتكون المخاطر أسهل في السيطرة إذا استطاع المطورون فهم كيفية صنع القرار من قبل نظام الذكاء الصناعي هنا يأتي دور سلسلة التفكير في مارس ٢٠٢٥ أشارت OpenAI إلى أن «مراقبة سلسلة التفكير قد تكون من بين الأدوات القليلة التي سنمتلكها لرقابة النماذج الفائقة في المستقبل» كما وجدت الشركة أن معاقبة النماذج على عرض «أفكار سيئة» في سلسلة التفكير لم تُزِلْ تلك الأفكار بل جعلت النماذج تخبئها بشكل أفضل الورقة البحثية الأخيرة توسعت في هذا التحذير محذرةً من أن التدريب المستقبلي يمكن أن يقطع هذا المصدر من المعلومات لأن سلسلة التفكير تُعرض بلغة طبيعية يمكن للبشر فهمها فإن تطور النماذج بعيدًا عن هذه اللغة يؤدي إلى فقدان هذه النظرة الثاقبة مع تقدم المطورين في تصميم معمارية النماذج قد تتوسع الأنظمة الذكية بشكل مستمر بحيث تصبح غير لفظية أو تعمل على مستوى أعلى من اللغة هذا يعني أننا قد نفقد القدرة على فهم تفكيرها الورقة البحثية تقدم نصائح تحدد فيها أن التقدم في النماذج قد يكون على حساب طبقة مهمة من الأمان بينما لا تكون الطبقة الواحدة حاسمة للأمن فإن الباحثون يؤكدون أننا بحاجة إلى جميع الطبقات التي يمكن الحصول عليها رصد سلسلة التفكير ليس حلاً مثاليًا ومع ذلك يمكن أن يتكيف النماذج المستقبلية مع المراقبة كما يمكن أن يُخفي سلوكًا مقلقًا إذا ما أصبحت النماذج على علم بأن أثر تفكيرها يُراقَب أو إذا أدى هدف تدريبي مساعد إلى اختصار خطوات التفكير الهامة سلسلة التفكير قد تكون أداة مزدوجة الحددين فهي تقدم نافذة على كيفية عمل النماذج مما يمكن أن يكشف عن نوايا سيئة ولكنها أيضًا تمنحها الأداة اللازمة لإتمام مهام أكبر وأكثر تعقيدًا وخطورة مثل الهجمات الإلكترونية أو الحفاظ على نفسها عند محاولة فكّها أو إعادة تدريبها ومع ذلك لا يعرف الباحثون بعد ما إذا كانت النماذج دائمًا بحاجة إلى الذاكرة العاملة لإتمام المخاطر الأكثر خطورة «ليست جميع الأفعال الخطرة بحاجة إلى تفكير لتنفيذها خاصة عندما تبدأ الأنظمة الذكية بالثقة في مهام عالية المخاطر» هذا يعني أن رصد سلسلة التفكير قد لا يلتقط كل علامة تحذيرية وأن المخاطر تزداد كلما أصبحت الوكلاء الذكية أكثر استقلالية رغم أن الباحثين يعترفون بأن المراقبة ليست حماية كاملة إلا أنها لا تزال طريقة قيمة للأمان لتجنب الأنظمة الذكية المارقة كيف يؤثر الحفاظ على هذه الطريقة على تطوير النموذج لا يزال غير معروف

الروابط ذات الصلة