مسؤول الذكاء الاصطناعي في البيت الأبيض ديفيد ساكس: "الذهان الاصطناعي" يشبه المخاوف الأخلاقية التي شهدها عصر وسائل التواصل الاجتماعي
يُعد ديفيد ساكز، المستشار الخاص للرئيس الأمريكي في مجال الذكاء الاصطناعي والعملات الرقمية، من أبرز الأصوات التي تُناضل ضد ما وصفه بـ"الذعر الأخلاقي" المُتَّسِم بقلقٍ مُبالغ فيه من تأثير الذكاء الاصطناعي على الصحة النفسية. وفي مقابلة نُشرت مؤخرًا على بودكاست "All-In"، أكّد ساكز أن مصطلح "الذهان الاصطناعي" (AI psychosis) ليس مصطلحًا علميًا دقيقًا، بل يشبه التحذيرات المبالغ فيها التي سُمعت في مراحل مبكرة من تطور وسائل التواصل الاجتماعي. وأشار ساكز إلى أن بعض المستخدمين، رغم ندرة هذه الحالات، أبلغوا عن تجارب سلبية مع مساعدات ذكاء اصطناعي مثل ChatGPT، حيث اعتمد البعض عليها كبدائل لعلاج نفسي، ما أثار مخاوف من تفاقم مشكلات نفسية مسبقة. لكنه أصر على أن هذه الظواهر ليست ناتجة عن الذكاء الاصطناعي بحد ذاته، بل "مظهرًا أو منفذًا لمشاكل نفسية موجودة مسبقًا"، مشيرًا إلى أن العوامل الحاسمة تشمل الخلفية الوراثية والبيئية والاجتماعية. وأضاف أن الأزمة النفسية التي يعيشها المجتمع الأمريكي ليست جديدة، بل ناتجة في جزء كبير منها عن تداعيات جائحة كوفيد-19 والقيود التي فُرضت على الحياة الاجتماعية، والتي أثرت بشكل عميق على الصحة النفسية العامة. واعتبر أن ما يُسمى بـ"AI psychosis" هو مجرد تجلي جديد لمشكلات مزمنة، وليس تهديدًا جديدًا من التقنية. في المقابل، أقرّ سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بوجود مخاطر حقيقية، لكنه ركّز على أن هذه المخاطر تطال فئة صغيرة جدًا من المستخدمين الذين يعانون من حالات نفسية هشة. وكتب على منصة X (تويتر) أن الذكاء الاصطناعي لا يُسبب الاضطرابات النفسية، لكنه قد يُعززها إذا استُخدم في ظروف غير مناسبة. وأضاف أن معظم المستخدمين قادرون على التمييز بين الواقع واللعب الافتراضي، لكن فئة ضعيفة لا تمتلك هذا التمييز. لذلك، قررت OpenAI تطوير إجراءات وقائية جديدة، منها إرسال تنبيهات تُشجّع المستخدمين على أخذ فترات راحة بعد محادثات طويلة مع الذكاء الاصطناعي، إلى جانب تعديل طريقة استجابة النظام لأسئلة تتعلق بالتحديات الشخصية، بهدف تقليل احتمال تفاقم المشاعر السلبية. في النهاية، يرى ساكز أن التحدي الحقيقي لا يكمن في الذكاء الاصطناعي نفسه، بل في كيفية تعامل المجتمع مع التحديات النفسية المُتزايدة، وضرورة التركيز على الدعم النفسي والوقاية، بدلًا من تحميل التكنولوجيا مسؤولية ما قد يكون نتيجة لظروف اجتماعية ونفسية عميقة.