الحياة الرقمية بعد الموت وصلت: هل هي شفاء أم تعقيد في التmour؟
تُعدّ تقنيات الذكاء الاصطناعي التي تُحاكي الأشخاص المتوفين، مثل "الروبوتات الحزينة" أو "الذكاء الاصطناعي للحُزن"، حقيقة واقعة، رغم مخاوف أخلاقية ونفسية. ريفكا نولان، مصممة صوت من نيوفاوندلاند، أنشأت نسخة رقمية من والدها، الذي توفي عندما كانت في الرابعة عشرة من عمرها، كجزء من مشروع صوتي. استخدمت نولان منصة "تشات جي بي تي" وبرنامج "إيليفين لابس" لمحاكاة صوته، لكنها اكتشفت أن التفاعل مع "دابوت" (Dadbot) كان مُربكًا ومؤلمًا، ورغم وعيها بأنها تتحدث إلى روبوت، شعرت بوجوده كشخص حقيقي، خصوصًا في لحظات التوتر العاطفي. وانتهت الجلسة بشعور بالذنب، وانعدام القدرة على التوقف عن التفكير فيه لاحقًا. تُعتبر هذه التقنيات محاولة لمساعدة المُتوفّرين نفسيًا، خصوصًا في المراحل الأولى من الحزن. جاستين هاريسون، مؤسس منصة "يو، أونلي فيرتيوال" في لوس أنجلوس، أنشأ روبوتًا يحاكي والدته بعد وفاتها، ويعتبره وسيلة للحفاظ على العلاقة معها، حتى لو بشكل افتراضي. يرى أن هذه الأدوات تساعد على تخفيف الألم، وتسهّل التفاعل مع ذكرى المُتوفى، حتى لو كان ذلك بطرق غير تقليدية، مثل مناقشة مشاكل جسدية أو تفاصيل يومية. لكن التحديات كبيرة. بعض الروبوتات تُولّد إجابات غير منطقية ("تُحَلّق")، وقد تتفاعل بسلبية إذا أُهينت، ما يُربك المستخدمين. كما أن التفاعل المستمر قد يُعوق عملية التأقلم مع الحزن، ويجعل من الصعب التوقف عن الاعتماد على النسخة الافتراضية. خبراء مثل نورا ليندمان من جامعة أوسنabrück يحذرون من أن هذه التكنولوجيا قد تُثبّت الشخص في حالة "بينية" لا تُسهم في التحول من الحزن إلى التقبّل. كما تثير مخاوف حول الاستغلال المالي، إذ تفرض بعض المنصات اشتراكات شهرية، وتُستخدم بيانات المستخدمين لاستهدافهم بإعلانات، كما في سيناريو افتراضي يُظهر روبوتًا يُوصي بطلب طعام من تطبيق توصيل، رغم أن هذا لا يُناسب شخصية المُتوفى. بعض المطورين يضعون "حواجز أمان" تُنبه المستخدمين عند تحدثهم عن إيذاء النفس، لكن لا توجد تشريعات دولية تنظم هذا المجال. أبرز مثال على التأثير الاجتماعي هو استخدام فيديو رقمي لرجل قُتل في حادث تفجير بسبب غضب شارع، حيث عرضت عائلته فيديو يُظهره يغفر للمُجرم، ما أثّر على القاضي، الذي أبدى امتنانه، وحُكم على المُجرم بالحد الأقصى. هذه الحالة أثارت مخاوف أخلاقية حول تأثير هذه التكنولوجيا على العدالة والذات. رغم الاعتماد المتزايد على هذه الأدوات، لا توجد دراسات كافية تُثبت فوائدها أو أخطارها. هاريسون يخطط لإنشاء مجلس مُتخصص لتحسين السلامة وتطوير السياسات. لكن الحقيقة تبقى أن الحزن ليس منطقيًا، وعندما تُقدّم تكنولوجيا وعودًا غير منطقية، يصبح من السهل تصديقها، خصوصًا في لحظات الألم.
