رئيس وزراء السويد يُنتقد ل confess استخدامه لـ ChatGPT في اتخاذ القرارات الحكومية
أثارت تصريحات رئيس وزراء السويد، أولف كريسترسون، جدلاً واسعاً بعد أن كشف خلال مقابلة مع موقع إخباري نرويجي أنه يستخدم أداة الذكاء الاصطناعي "تشات جي بي تي" لطلب "رأي ثانٍ" في بعض قراراته الحكومية. ووصف كريسترسون الاستخدام بأنه أداة مساعدة، تُسهم في التفكير في سيناريوهات مختلفة، مثل: "ما الذي فعله الآخرون؟ وهل يجب أن نفكر بالعكس تمامًا؟". هذه التصريحات، رغم بساطتها، أثارت موجة من الانتقادات من خبراء وصحفيين، يرون فيها مؤشراً مقلقًا على تآكل الهوية الذاتية للقيادة السياسية. الدكتورة في الذكاء الاصطناعي المسؤول، فيرنيا ديجنوم، من جامعة أوميا، حذرت من أن الاعتماد المتزايد على نماذج الذكاء الاصطناعي في صنع القرار الحكومي يشكل "منحدراً مزلزلاً". وقالت إن هذه الأنظمة لا تضمن المصداقية أو المسؤولية، معتبرة أن "الشعب لم يصوت لصالح تشات جي بي تي، بل لصالح قادة بشريين". وشددت على أن التفكير النقدي والمسؤولية الأخلاقية لا يمكن تفويضها إلى خوارزميات تُعدّ "أفضل في التخمين من الإجابة الصحيحة". وانتقدت صحيفة أفتونبلادت السويدية، من خلال كاتبها سيني كرانتس، الطريقة التي يُقدّم بها الذكاء الاصطناعي معلومات، مشيرة إلى أن هذه الأنظمة "تُفضل كتابة ما يُعتقد أنك تريده، وليس ما تحتاجه فعلاً". وحذّرت من خطر أن تصبح أدوات الذكاء الاصطناعي وسيلة لتعزيز التحيّزات السياسية، بدلًا من التحدي لها، خصوصاً إذا استخدمها قادة يطرحون أسئلة مُسبقة التوجه. رغم أن كريسترسون لم يُعلن عن اعتماده الكامل على الأداة، فإن تأكيده على استخدامها كأداة تفكير مساعدة يعكس تطوراً ملحوظاً في تقبل التكنولوجيا في صناعة القرار السياسي. وسط تزايد استخدام الذكاء الاصطناعي في مجالات متعددة، من التعليم إلى الطب، تبرز تساؤلات جوهرية حول حدود التفويض الذاتي للذكاء البشري. فهل نحن نُسهم في تقوية أنظمة لا تملك وعيًا، ولا تتحمل مسؤولية، ولا تُدرك التداعيات الأخلاقية لقراراتها؟ في المقابل، يُمكن تفسير تصريح كريسترسون على أنه محاولة لتقريب القائد من الجمهور، عبر الإشارة إلى أداة تكنولوجية شهيرة. لكن حتى في هذه الحالة، يظل التساؤل مطروحاً: ماذا يحدث عندما تصبح التكنولوجيا جزءاً من الهيكل الأساسي للسلطة؟ الواقع أن الصناعة التكنولوجية، على مدى عقدين، ساهمت في تقليل الحاجة إلى التفكير العميق، عبر تبسيط المهام وتقديم حلول فورية. والآن، مع دخول الذكاء الاصطناعي إلى مساحات حساسة مثل الحكم، تصبح هذه الظاهرة أكثر خطورة. فما دام القرار السياسي يُبنى على نماذج تتعلم من بيانات بشرية، فإنها لا تزال عرضة للتحيّزات، والتقديرات الخاطئة، والتخمينات غير المدعومة بالواقع. في النهاية، لا يكمن الخطر في استخدام الذكاء الاصطناعي بحد ذاته، بل في الاعتقاد الخاطئ بأنه بديل عن العقل البشري، خاصة في مسائل تتعلق بالعدالة، والمسؤولية، والقيم. والسؤال الأهم: هل نحن على استعداد لتسليم صناعة القرار إلى آلة لا تُدرك ما هو "صحيح"؟ ربما لا نعرف بعد، لكن التحدي يبدأ من هنا.