أداة المختبرات الرقمية تعيد Animation الدماغ الاصطناعي لفهم أسباب الفشل في النظم الذكية
أداة تشخيص تعيد "إحياء" أدمغة الذكاء الاصطناعي التي فشلت لكشف ما حدث مع تزايد استخدام أنظمة الذكاء الاصطناعي (AI) في حياتنا اليومية، بدءًا من الطائرات بدون طيار التي تنقل الإمدادات الطبية وحتى المساعدين الرقميين الذين يقومون بالمهام اليومية، أصبحت هذه الأنظمة جزءًا لا يتجزأ من تقنياتنا الحديثة. ومع ذلك، فإن هذه الأنظمة ليست معجزات ولا تخلو من الأخطاء. يمكن أن تفشل أنظمة الذكاء الاصطناعي بسبب عيوب تصميم فنية أو بيانات تدريب منحازة، كما يمكن أن تتعرض للهجمات الإلكترونية بسبب نقاط الضعف في كودها. في حالات الفشل الحرجة، مثل تحطم سيارة ذاتية القيادة، من الأهمية بمكان تحديد السبب الدقيق للخطأ. قد تشير السجلات وبيانات الحساسات إلى أن كاميرا معيبة أدت إلى تفسير خاطئ لإشارة المرور. ولكن التحدي يكمن في كيفية التحقيق في أنظمة الذكاء الاصطناعي بعد حدوث الفشل أو الهجوم، خاصة عندما يتم منع المحققين من الوصول إلى البيانات الداخلية للنظام. نظام AI Psychiatry فريق من العلماء الحاسوبيين في معهد جورجيا للتكنولوجيا طور نظامًا جديدًا يسمى "AI Psychiatry" (AIP)، والذي يمكنه إعادة إنشاء السيناريو الذي فشلت فيه أنظمة الذكاء الاصطناعي لتحديد ما حدث. يعمل هذا النظام على استعادة و"إحياء" النموذج المشتبه به ليتم اختباره بشكل منهجي. آلية العمل تقوم AI Psychiatry بتطبيق سلسلة من الخوارزميات الجنائية لعزل البيانات التي تقف وراء قرارات نظام الذكاء الاصطناعي. ثم يتم إعادة تركيب هذه القطع في نموذج وظيفي يتطابق تمامًا مع النموذج الأصلي. يستطيع المحققون إعادة تشغيل الذكاء الاصطناعي في بيئة مراقبة واختباره بمدخلات خبيثة لمعرفة ما إذا كان يظهر سلوكيات ضارة أو مخفية. تطبيق الحالة تخيل سيارة ذاتية القيادة تخرج عن الطريق دون أي سبب واضح ثم تحطم. قد تشير السجلات وبيانات الحساسات إلى أن كاميرا معيبة أدت إلى تفسير خاطئ لإشارة المرور. في هذا السيناريو، يحتوي صورة الذاكرة (ذاكرة الحاسوب عند تشغيل النظام) وقت الحادث على أدلة حاسمة حول الحالة الداخلية وعمليات اتخاذ القرار لنظام الذكاء الاصطناعي الذي يتحكم في السيارة. باستخدام AI Psychiatry، يمكن للمحققين الآن استخراج النموذج الدقيق للذكاء الاصطناعي من الذاكرة، تحليله وتحميله في بيئة آمنة للاختبار. الاختبارات والنتائج أجرى فريق البحث اختبارات على 30 نموذجًا من الذكاء الاصطناعي، منها 24 تم تجهيزها عمداً بـ"بوابات خلفية" (Backdoors) لتقديم نتائج غير صحيحة عند وجود مثيرات معينة. نجح النظام في استعادة وإعادة استضافة واختبار كل النماذج، بما في ذلك النماذج الشائعة في السيناريوهات الواقعية مثل التعرف على إشارات الشارع في السيارات ذاتية القيادة. تشير الاختبارات حتى الآن إلى أن AI Psychiatry يمكنه حل اللغز الرقمي وراء فشل مثل تحطم السيارة ذاتية القيادة بفعالية، مما كان يترك العديد من الأسئلة بلا إجابة في السابق. تطبيقات متنوعة خوارزمية AI Psychiatry الرئيسية هي عامة، حيث تركز على المكونات الشاملة التي يجب أن تتوفر في جميع نماذج الذكاء الاصطناعي لصنع القرارات. هذا يجعل منهجيتنا قابلة للتوسع إلى أي نماذج ذكاء اصطناعي تستخدم أطر التطوير الشائعة. يمكن لأي شخص يسعى للتحقيق في فشل محتمل في الذكاء الاصطناعي استخدام نظامنا لتقييم النموذج دون الحاجة إلى معرفة سابقة ببنائه الدقيق. سواء كان الذكاء الاصطناعي روبوتًا يقدم توصيات للمنتجات أو نظامًا يوجه أسطولًا من الطائرات بدون طيار، يمكن لـ AI Psychiatry استعادة وإعادة استضافة الذكاء الاصطناعي لتحليله. الشفافية والرقابة إن AI Psychiatry هو أداة مفتوحة المصدر تمامًا يمكن لأي محقق استخدامها. كما يمكن أن يكون أداة قيمة لإجراء التدقيق على أنظمة الذكاء الاصطناعي قبل حدوث المشاكل. مع دمج الوكالات الحكومية، بدءًا من إنفاذ القانون وحتى خدمات حماية الأطفال، لأنظمة الذكاء الاصطناعي في عملياتها، تصبح الرقابة على الذكاء الاصطناعي متطلبًا شائعًا على مستوى الدولة. باستخدام أداة مثل AI Psychiatry، يمكن للمدققين تطبيق منهجية جنائية متسقة عبر منصات الذكاء الاصطناعي المختلفة والتطبيقات. الآثار الطويلة الأمد في المدى الطويل، ستكون لهذه الأداة فوائد حقيقية لكل من مطوري أنظمة الذكاء الاصطناعي وكل من يتأثر بالمهام التي تقوم بها هذه الأنظمة. ستساعد AI Psychiatry في تحسين الشفافية والأمان، مما يسهم في بناء الثقة بين المستخدمين والشركات المطورة. تقييم الخبراء يعد نظام AI Psychiatry خطوة مهمة نحو تحقيق الشفافية في أنظمة الذكاء الاصطناعي. يرى الخبراء أن هذه الأداة ستساعد في تبسيط عمليات التحقيق والتدقيق، خاصة في الحالات التي تتطلب فيها وكالات حكومية فهمًا دقيقًا للسبب وراء الفشل أو الهجوم. هذا التقدم سيمنح مزيدًا من الأمان والثقة في تقنيات الذكاء الاصطناعي، مما يعزز استخدامها في مجالات حساسة ومهمة. نبذة عن الشركة الفريق الذي طور نظام AI Psychiatry يتكون من باحثين في معهد جورجيا للتكنولوجيا، وهو أحد أبرز المؤسسات الأكاديمية في الولايات المتحدة المتخصصة في العلوم الحاسوبية وأمن المعلومات. يهدف الفريق إلى تحسين الشفافية والأمان في مجال الذكاء الاصطناعي، وهو ما يعد خطوة مهمة نحو إنشاء تقنيات أكثر موثوقية وأمانًا.