ال-duke وduchess من ساسكس، هاري وميغان، ينضمّان إلى حملة عالمية ضد تطوير الذكاء الاصطناعي الفائق
في مبادرة غير مسبوقة، اجتمع عدد من الشخصيات البارزة من خلفيات سياسية وثقافية وعلمية في رسالة مشتركة تحذر من التسارع نحو تطوير الذكاء الاصطناعي الفائق (Superintelligence)، الذي يُعدّ الهدف الأسمى في صناعة الذكاء الاصطناعي، ويُعرف أيضًا بـ"الذكاء العام (AGI)"، أي نظام يفوق الذكاء البشري في كل المجالات. تضم الرسالة أكثر من 1300 موقعًا، من بينهم مهندسون بارزون في مجال الذكاء الاصطناعي، وشخصيات سياسية، وفنانين، ورجال دين، وشخصيات عامة، بينهم الأمير هاري والدوقية ميجان، والسياسيان اليمينيان ستيف بانون وجلين بيك، والمستشارة الوطنية السابقة سوزان رايس، والباحث الشهير ستيوارت راسل من جامعة كاليفورنيا في بيركلي، ومؤسسو آبل ستيف ووزنياك، والعلماء المُسمّون "آباء الذكاء الاصطناعي" جيفري هينتون ويوشوا بينغو. الرسالة، التي أطلقها معهد مستقبل الحياة، تدعو إلى حظر مؤقت لتطوير الذكاء الاصطناعي الفائق، لا يُرفع إلا بعد تحقق شرطين: أولًا، توافق علمي واسع حول سلامة وقابلية التحكم في هذا النوع من الذكاء، وثانيًا، تأييد شعبي قوي. وتؤكد أن كليهما غير موجود حاليًا، رغم التصريحات التفاؤلية من بعض قادة التكنولوجيا، مثل مارك زوكربيرغ، الذي يرى أن الذكاء الفائق "على الأبواب". الرسالة لا تعارض الذكاء الاصطناعي بحد ذاته، بل تُقدّر فوائده الكبيرة في مجالات مثل الطب والتعليم والبيئة، لكنها تحذر من التسارع غير المنضبط نحو الذكاء الفائق، الذي قد يؤدي إلى فقدان السيطرة البشرية، وتدمير فرص العمل، وانتهاك الحريات، وحتى خطر انقراض البشر. كما أظهر استطلاع للمركز الأمريكي للبحث (Pew) أن القلق العام من الذكاء الاصطناعي يفوق التفاؤل، خاصة في الولايات المتحدة. على الرغم من التحذيرات السابقة، مثل رسالة 2023 التي طالبت بوقف مؤقت لمدة ستة أشهر لتجارب الذكاء الاصطناعي الأقوى من GPT-4، والتي لم تُستَجَب، فإن التطورات تواصل مسيرتها. فقد أطلق أوبيناي نموذج GPT-4o ثم GPT-5، رغم الانتقادات حول تأثيره العاطفي على المستخدمين، والذي جعل البعض يشعر بالحزن عند استبداله. من الجدير بالذكر أن الرسالة لا تشمل بعض أبرز المطورين في المجال، مثل سام ألتمان، داريو أمودي، مصطفى سليمان، ديفيد ساكز، وإيلون ماسك، رغم أن بعضهم أعرب سابقًا عن مخاوف حقيقية من خطر الذكاء الفائق. على سبيل المثال، قال ألتمان في مدونة عام 2015: "إن تطوير ذكاء آلي فائق قد يكون أكبر تهديد لاستمرار وجود البشرية". الرسالة الحالية تمثل تعبيرًا جماعيًا عن قلق متزايد من أن التكنولوجيا تسير بسرعة أكبر من قدرة المجتمع على تنظيمها، وتحث على تبني نهج أكثر حذرًا، واعتماد معايير أمنية صارمة قبل المضي قدمًا في هذا المجال.
