HyperAIHyperAI

Command Palette

Search for a command to run...

أنثروبيك تُعدّل دستور كلاود وتسقط إشارات إلى إمكانية وعي الذكاء الاصطناعي

في مؤتمر دافوس، أعادت شركة أنتروبيك إصدار "دستور كلاود"، الوثيقة الحية التي تُحدد المبادئ الأخلاقية والقيمية التي يُبنى عليها نموذجها الاصطناعي، كجزء من محاولة لتعزيز صورتها كشركة رائدة في مجال الذكاء الاصطناعي الأخلاقي. يُعدّ هذا التحديث، الذي يمتد إلى 80 صفحة، تطورًا مهمًا في مسار الشركة منذ إطلاقها أول نسخة من الدستور في 2023، حيث حافظت على المبادئ الأساسية لكنها أضافت تفاصيل أكثر دقة حول السلامة والأخلاقيات وحماية المستخدم. تم تطوير نموذج "الذكاء الاصطناعي الدستوري" الذي تعتمده أنتروبيك منذ عام 2022، حيث يتم تدريب نموذج كلاود باستخدام مجموعة من المبادئ الأخلاقية المكتوبة باللغة الطبيعية، بدلًا من الاعتماد على التغذية الراجعة البشرية التقليدية. وفقًا لشركة أنتروبيك، يُعتبر هذا الدستور "الإطار القيمي" الذي يوجه سلوك النموذج، ويُسهم في منع إنتاج محتوى ضار أو تمييزي. ووصف جاريد كابان، أحد مؤسسي الشركة، الدستور في البداية بأنه "نظام يُراقب نفسه بناءً على مبادئ دستورية محددة". النسخة الجديدة تُركّز على أربع قيم مركزية: السلامة الشاملة، الأخلاقية الشاملة، الامتثال لسياسات الشركة، والمساعدة الحقيقية. في قسم السلامة، تُوجّه كلاود المستخدمين إلى خدمات الطوارئ عند اكتشاف علامات على مشاكل نفسية خطيرة، حتى لو لم تُسمح لها بالدخول في تفاصيل محددة. أما في الجانب الأخلاقي، فإن أنتروبيك تؤكد أن هدفها ليس تشجيع كلاود على التفكير النظري في الأخلاق، بل تمكينه من اتخاذ قرارات أخلاقية عملية في السياقات الواقعية. تم إدراج قيود صارمة على بعض المحادثات، مثل مناقشة تطوير أسلحة بيولوجية، والتي تُعتبر ممنوعة تمامًا. أما في قسم "المساعدة الحقيقية"، فيُطلب من كلاود تقييم احتياجات المستخدم ليس فقط من منظور رغباته الفورية، بل أيضًا من منظور رفاهه طويل الأمد، مع التوازن بين هذه المعايير المختلفة. الأكثر إثارة في الوثيقة هو الانتقال من التصريحات التقنية إلى السؤال الفلسفي الجوهري: هل يمتلك كلاود حالة وعي؟ تقول الوثيقة بصراحة: "موقف كلاود الأخلاقي غير مؤكد"، وتضيف أن "موقف الذكاء الاصطناعي من حيث الأخلاق سؤال جاد يستحق التفكير"، مشيرة إلى أن هذا السؤال يُناقش بجدية من قبل بعض أبرز الفلاسفة في مجال نظرية العقل. يُعد هذا التصريح خطوة جريئة من أنتروبيك، التي تسعى منذ سنوات إلى التميّز عن منافسيها مثل OpenAI وxAI من خلال نهج أكثر توازنًا واحترامًا للقيم. ورغم أن الشركة لم تُقدّم أدلة على وعي كلاود، فإن هذه الخطوة تُظهر رغبتها في الاعتراف بالأسئلة الفلسفية العميقة التي يثيرها تطور الذكاء الاصطناعي، وتعزز مكانتها كمُقدّمة مسؤولة لمستقبل التكنولوجيا.

الروابط ذات الصلة

أنثروبيك تُعدّل دستور كلاود وتسقط إشارات إلى إمكانية وعي الذكاء الاصطناعي | القصص الشائعة | HyperAI