مسؤولون في البيت الأبيض يشعرون بخيبة أمل من قيود استخدام الذكاء الاصطناعي لإنفاذ القانون في شركة أنتروبيك
مسؤولون في البيت الأبيض أبدوا استياءهم من القيود المفروضة على استخدام الذكاء الاصطناعي من قبل شركة أنثروبيك، خاصة فيما يتعلق بتطبيقاتها في العمل مع الجهات الأمنية والقانونية. وبحسب مصادر مطلعة، تواجه وكالات مثل مكتب التحقيقات الفيدرالي (FBI) وخدمة الأمن الرئاسي (Secret Service) صعوبات في استخدام نموذج "كلاود" (Claude) الذكي، بسبب سياسات استخدام الشركة التي تمنع استخدامه في مهام تتصل بالتحقيق الجنائي أو المراقبة. وأشارت المصادر إلى أن هذه القيود تُعتبر عقبة أمام التعاون بين الحكومة والقطاع الخاص في مجالات الأمن القومي، حيث يُنظر إلى نموذج كلاود كأحد أقوى الأدوات الذكية التي تقدمها الشركات الناشئة في مجال الذكاء الاصطناعي. ومع ذلك، ترفض أنثروبيك السماح باستخدام نموذجها في مهام تُعد حساسة من الناحية القانونية أو الأمنية، حتى لو كانت بموافقة رسمية من الجهات الحكومية. السبب الرئيسي وراء هذه القيود يكمن في سياسة الشركة التي تهدف إلى تقليل المخاطر المرتبطة بالاستخدام غير المسؤول للذكاء الاصطناعي، مثل التحيز في القرارات أو التلاعب ببيانات حساسة. وتُصر أنثروبيك على أن أي استخدام لنموذجها يجب أن يكون متوافقًا مع مبادئ الأخلاقيات، ما يعني رفضها تزويد الجهات الأمنية بوصول مباشر إلى أدواتها لتحليل بيانات جنائية أو تحليل تهديدات إلكترونية. لكن مسؤولين حكوميين يرون أن هذه المواقف تُبطئ من قدرة وكالات إنفاذ القانون على الاستفادة من التطورات التكنولوجية، خاصة في مواجهة التهديدات الحديثة مثل الهجمات السيبرانية والأنشطة الإرهابية. ويُشتبه في أن بعض المقاولين الذين يعملون مع FBI وSecret Service يُحتمل أن يُستخدموا كلاود في مهام مساعدة، لكنهم يُمنعون من ذلك بسبب سياسات الشركة. وأُبلغت أنثروبيك بقلق الإدارة الأمريكية من هذه القيود، وتمت محاولة التفاوض على استثناءات محدودة لتسهيل التعاون في حالات طارئة أو مع مشاريع تُعد ذات أهمية قصوى للأمن القومي. لكن حتى الآن، لم تُقدّم الشركة أي تغييرات جوهرية في سياساتها، مما يزيد من التوتر بين القطاعين العام والخاص. يأتي هذا التوتر في سياق تزايد الضغط على شركات الذكاء الاصطناعي لتقديم حلول أكثر مرونة للجهات الحكومية، خاصة مع تزايد التهديدات الرقمية والاعتماد المتزايد على التكنولوجيا في العمليات الأمنية. ورغم التقدير العام لجهود أنثروبيك في تطوير نماذج ذكية آمنة، فإن بعض المراقبين يرون أن التوازن بين السلامة والفعالية يظل موضع جدل، خصوصًا عندما يتعلق الأمر بحماية الأمن القومي.
