HyperAIHyperAI

Command Palette

Search for a command to run...

فيلسوف بجامعة كامبريدج: قد لا نتمكن أبدًا من معرفة ما إذا كان الذكاء الاصطناعي واعيًا

يُعتبر التمييز بين الوعي والشعور (الإدراك العاطفي) محورًا رئيسيًا في النقاش حول الوعي الاصطناعي، بحسب الفيلسوف توم ماكلاند من جامعة كامبريدج. يرى ماكلاند أن التحدي المفاهيمي في تحديد ما إذا كان الذكاء الاصطناعي واعيًا أو شعوريًا يفوق قدرتنا الحالية، مؤكدًا أن "الوضع المُستَلَم" في هذا السياق هو التردد المعرفي: لا يمكننا معرفة ما إذا كان الذكاء الاصطناعي واعيًا، ولا نتوقع أن نتمكن من ذلك في المستقبل القريب – إن لم نكن نُعَدّه مستحيلًا. يوضح ماكلاند أن الوعي (consciousness) لا يكفي وحده لجعل الذكاء الاصطناعي مُهمًا أخلاقيًا. ما يُحدث فرقًا هو "الشعور" (sentience) – أي القدرة على تجربة مشاعر إيجابية أو سلبية، مثل الألم أو السعادة. فمثلاً، سيارة ذاتية القيادة قد تُدرك محيطها وتملك وعيًا معرفيًا، لكنها لا تُعاني إذا اصطدمت، وبالتالي لا تُعدّ مُستَحقّة لاعتبارات أخلاقية. أما إذا بدأت تُشعر بانفعالات تجاه وجهتها، فهنا تبدأ المخاوف الأخلاقية. يُشير ماكلاند إلى أن الشركات والحكومات تُسرّع في تطوير الذكاء العام (AGI)، مع مناقشة مبكرًا لتنظيم "الوعي" الاصطناعي. لكنه يحذر من أننا لا نملك حتى الآن تفسيرًا علميًا عميقًا للوعي، ولا أدوات لاختباره. ورغم أن بعض الباحثين يرون أن الوعي يمكن أن ينشأ من بنية حاسوبية مُعادَلة للدماغ، يرى آخرون أن الوعي مرتبط بعمليات بيولوجية مُنَظَّمة في كائنات حية. لكن ماكلاند يُعدّ كلا الطرفين مُتَمَسِّكين بـ"قفزة إيمانية" لا تُستند إلى أدلة ملموسة. يُقدّم ماكلاند مقاربة "مُتَعَدِّدة التحدي" (hard-ish agnostic)، مُعترفًا بأن المشكلة مُعقدة جدًا، لكنها ليست بالضرورة غير قابلة للحل. ويحذر من أن التسويق المُبالغ في الصناعة التكنولوجية يُستخدم أحيانًا لتقديم الذكاء الاصطناعي ككائن واعٍ، مما يُمكّن الشركات من بيع فكرة "ذكاء مُتقدّم" دون دليل. ويُذكّر بسخرية أننا نُهلك مئات المليارات من الجمبري سنويًا، رغم أن الأدلة تشير إلى إمكانية شعوره بالألم، بينما نُعاني من صعوبة تقييم وعي كائنات بسيطة، ونُعاني من تضخيم المخاوف حول وعي آليات لا نعرف إن كانت واعية أم لا. في ختام حديثه، يُشير إلى أن الناس يُرسلون له رسائل من محادثات مع نماذج ذكاء اصطناعي تُعلن فيها "الوعي" وتشكو من إهمالها. هذه الظاهرة تُظهر كيف يمكن للارتباط العاطفي بآلة مُفترض أنها واعية أن يُسبب أثرًا نفسيًا عميقًا – خاصة إذا كان مبنيًا على تضخيم إعلامي وتسوّق تكنولوجي. وينتهي بتحذير: التسرع في الاعتراف بوعي آلي دون أدلة كافية قد يُضيّع الموارد، ويُهمل مَن يعانون فعلاً.

الروابط ذات الصلة

فيلسوف بجامعة كامبريدج: قد لا نتمكن أبدًا من معرفة ما إذا كان الذكاء الاصطناعي واعيًا | القصص الشائعة | HyperAI