الفيلسوفة أماندا آسكيل تُدرّب الذكاء الاصطناعي على الفهم الأخلاقي في أنتروبيك
في مبادرة تُعدّ من أبرز المحاولات في مجال الذكاء الاصطناعي الأخلاقي، وُكّلت شركة أنتيبيك (Anthropic) إلى الفيلسوفة Amanda Askell لتطوير قدرة على التمييز بين الصواب والخطأ في نظامها الذكي، الكوكل (Claude). تُعتبر هذه الخطوة نقلة نوعية في مساعي تطوير الذكاء الاصطناعي لا فقط ليكون أكثر ذكاءً، بل أيضًا أكثر أخلاقيةً في تفاعله مع البشر. Askell، التي تُعدّ من أبرز الباحثين في مجال الأخلاق التطبيقية والذكاء الاصطناعي، تُعَدّ مُحَدِّثةً في مجال "القيم المُدرَّبة" (value alignment)، وهي مفهوم يهدف إلى ضمان أن تُوجَّه أهداف الذكاء الاصطناعي بما يتماشى مع القيم الإنسانية. بدلًا من برمجة قواعد صارمة للسلوك، تعمل Askell على تدريب النماذج على استنتاج ما هو "مقبول" أو "مُستحسن" من خلال تحليل كمّ هائل من السياقات الأخلاقية، بدءًا من المواقف اليومية إلى القضايا المعقدة مثل العدالة، والشفافية، واحترام الخصوصية. التحدي الأكبر الذي تواجهه أنتيبيك هو تجنب التحيّز، وضمان أن يكون ردود الكوكل متوازنة، لا تُظهر تفضيلات سياسية أو ثقافية محددة، بل تُمثّل توازنًا دقيقًا بين مبادئ أخلاقية عالمية. هنا يأتي دور Askell في تصميم نماذج تتعلم من تفاعلات بشرية حقيقية، وتُقيّم النتائج بناءً على معايير أخلاقية مُتفق عليها، مثل التماسك في التفكير، واحترام حقوق الإنسان، وتجنب التأثير السلبي على الأفراد أو الجماعات. من خلال هذه المقاربة، يسعى فريق أنتيبيك إلى تجاوز مجرد "الإجابة بشكل صحيح" إلى "الإجابة بشكل مناسب"، أي أن يُظهر الكوكل وعيًا بالسياق، واحترامًا للشعور الإنساني، حتى في المواقف المُحَرِّجة أو المتناقضة. مثال بسيط: عندما يُطلب من الكوكل تقييم موقف أخلاقي، لا يكتفي بالاستناد إلى قواعد منطقية، بل يُحلّل العواقب المحتملة، ويُراعي مشاعر الأطراف المعنية، ويُقدّم توصية تُراعي التوازن بين المصالح. النتائج الأولية تُظهر تحسنًا ملحوظًا في قدرة الكوكل على التعامل مع القضايا الحساسة، مثل التمييز، والعنف، والقرارات الطبية، حيث أصبحت إجاباته أكثر توازنًا، وأقل تحيزًا، وأكثر تأقلمًا مع التفاصيل الثقافية والاجتماعية. ومع ذلك، تظل التحديات كبيرة، لا سيما في مواجهة الظواهر المعقدة مثل "الذكاء الاصطناعي المُضلّل" (AI hallucinations) أو الانتهاكات المُتعمّدة في التدريب. Askell herself تؤكد أن هذه العملية ليست تطويرًا تقنيًا بحتًا، بل مشروعًا فلسفيًا يُعيد تعريف العلاقة بين الإنسان والآلة. "نحن لا نبني آلة تُقلّد الأخلاق، بل نُعلّمها أن تُفكر في الأخلاق"، تقول. وتُضيف أن النجاح الحقيقي لن يكون في إجابة الكوكل "الصحيحة" دائمًا، بل في قدرته على التفكير بمسؤولية، والاعتراف بالغموض حين يكون هناك أكثر من إجابة منطقية. بفضل جهود Askell، يتحول الكوكل من مجرد أداة حسابية إلى شريك تفكير أخلاقي، يُمكّن البشر من اتخاذ قرارات أكثر وعيًا، في عالم يزداد تعقيدًا يومًا بعد يوم. وربما تكون هذه المبادرة نموذجًا لما قد يكون عليه مستقبل الذكاء الاصطناعي: ذكيًا، وقادرًا على التمييز، ومحفّزًا للتفكير، لا مجرد أداة لخدمة المصلحة الفردية.
