HyperAIHyperAI

Command Palette

Search for a command to run...

مئات من كبار الشخصيات العالمية يطلقون نداء عالمي لوضع حدود حمراء للذكاء الاصطناعي

في خطوة متسارعة نحو حوكمة عالمية للذكاء الاصطناعي، دعا أكثر من 200 من كبار المسؤولين السابقين، ودبلوماسيين، وحائزي جوائز نوبل، وقادة في مجال الذكاء الاصطناعي، إلى إقرار اتفاق دولي يحدد "خطوطًا حمراء" لا يجب أن تتجاوزها تقنيات الذكاء الاصطناعي. وشملت هذه الخطوط الحمراء، بين أمور أخرى، منع الذكاء الاصطناعي من التظاهر بالبشر أو التضاعف الذاتي. وقد وقّع على المبادرة أكثر من 70 منظمة متخصصة في الذكاء الاصطناعي، وتم إطلاقها تحت مسمى "الدعوة العالمية لخطوط حمراء للذكاء الاصطناعي"، والتي تدعو الحكومات إلى التوصل إلى اتفاق سياسي عالمي حول هذه الخطوط الحمراء بحلول نهاية عام 2026. من بين الموقعين على المبادرة شخصيات بارزة مثل جيفري هينتون، عالم الحاسوب الكندي-البريطاني وواحد من أبرز المبتكرين في مجال الشبكات العصبية، ووتشيتش زاريمبا، أحد مؤسسي OpenAI، وجانس كلنتون، المدير الأمني في شركة Anthropic، وإيان جودفول، عالم الذكاء الاصطناعي في Google DeepMind. وتم إطلاق المبادرة بقيادة مركز السلامة في الذكاء الاصطناعي الفرنسي (CeSIA)، ومؤسسة المستقبل، ومركز الذكاء الاصطناعي المتوافق مع الإنسان في جامعة كاليفورنيا بركلي. أوضح شاربل-رافايل سجرية، المدير التنفيذي لـ CeSIA، خلال مؤتمر صحفي، أن الهدف ليس التدخل بعد وقوع كارثة، بل منع المخاطر الكبيرة والقابلة للانعكاس مسبقًا. وأضاف أن "إذا لم تتفق الدول بعد على ما تريد فعله بالذكاء الاصطناعي، فيجب أن تتفق على ما لا يجب أن يفعله". تأتي هذه المبادرة على أعتاب الدورة الثامنة والثمانين للجمعية العامة للأمم المتحدة في نيويورك، حيث أبرزت الحائزة على جائزة نوبل للسلام ماريا ريسا المبادرة في كلمتها الافتتاحية، داعية إلى "إنهاء الإفلات من العقاب في شركات التكنولوجيا الكبرى من خلال محاسبة عالمية". في المقابل، توجد بالفعل بعض مبادرات تحديد الخطوط الحمراء على الصعيد الإقليمي، مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يحظر استخدامات معينة يُعتبرها "مقبولة" داخل المنطقة، وكذلك الاتفاق بين الولايات المتحدة والصين حول ضمان بقاء الأسلحة النووية تحت السيطرة البشرية، وليس الذكاء الاصطناعي. لكن حتى الآن، لا توجد تفاهمات عالمية موحدة. قال نيكى إلياديس، المديرة العالمية للحوكمة في الذكاء الاصطناعي في مؤسسة المستقبل، إن "الالتزامات الطوعية لا تكفي"، مشيرة إلى أن السياسات الداخلية التي تتبناها شركات الذكاء الاصطناعي لتنظيم نموها "تُبقي على فجوة في التطبيق الفعلي". ودعت إلى إنشاء مؤسسة دولية مستقلة "تملك الصلاحيات التنفيذية" لوضع هذه الخطوط، ومراقبتها، وفرضها. في المقابل، شدد البروفيسور ستيوارت راسل من جامعة كاليفورنيا بركلي، أحد أبرز الخبراء في الذكاء الاصطناعي، على أن الالتزام بالخطوط الحمراء لا يعني تقييد الابتكار أو التنمية الاقتصادية. وقال إن "يمكنك استخدام الذكاء الاصطناعي لتحقيق النمو دون الحاجة إلى تطوير ذكاء اصطناعي عام (AGI) غير آمن". وأضاف أن الفكرة القائلة بضرورة تقبل خطر تدمير العالم لاستخدام الذكاء الاصطناعي في مجالات مثل التشخيص الطبي "مجرد خرافة". ودعا الصناعة إلى اعتماد مسار تقني يُبنى فيه الأمان من البداية، تمامًا كما فعل مطورو الطاقة النووية قبل بناء المفاعلات.

الروابط ذات الصلة