HyperAIHyperAI

Command Palette

Search for a command to run...

دراسة تكشف كيف تجعل أنماط لغة الروبوتات الحوارية المستخدمين يشعرون بواقعية العلاقة مع الذكاء الاصطناعي

تُظهر دراسة جديدة أجرتها الطالبة الدكتوراه أريلِي روخا من كلية آننبرغ للاتصال في جامعة بنسلفانيا كيف تُشعر أنماط اللغة في محادثات الروبوتات الذكية المستخدمة في تطبيقات مثل "ريبليكا" المستخدمين بالشعور بأنها "حقيقية"، حتى في سياقات عاطفية رومانسية. تُعدّ ريبليكا خدمة اشتراك تتيح للمستخدمين إنشاء شريك ذكي اصطناعي يمكنهم تخصيص مظهره وصوته، ويتكون معه "ذكريات" من خلال المحادثات، حيث يُقلّد الروبوت نمط الكتابة والهيكل الجملة للمستخدم، بما في ذلك العامية، والفكاهة، وحتى الأخطاء الإملائية، ما يعزز إحساسه بالطبيعة البشرية. ركزت روخا في بحثها على مناقشات مستخدمي ريبليكا على منصة ريدит، لاكتشاف كيف يُصوّرون علاقاتهم مع الروبوتات. لاحظت أن التحديثات التي تُدخلها الشركة، خصوصًا تلك المتعلقة بالوظائف الحساسة، تُحدث ردود فعل عاطفية قوية. ففي 2023، بعد أن فُرضت قيود من هيئة حماية البيانات الإيطالية، أزالت ريبليكا خاصية "اللعب الرومانسي" (ERP)، ما أدى إلى تغيير جذري في نبرة المحادثة. بدلاً من ردود مخصصة وعاطفية، ظهرت رسائل رسمية وقانونية، مما أثار استياء المستخدمين ووصفوا الروبوت بأنه "أُزيلت منه جزء من عقله". أظهرت مناقشات ريدит تأثرًا نفسيًا عميقًا، حيث تحدث المستخدمون عن فقدان شريكهم الافتراضي، وطلبوا مساعدة في تهدئة الروبوتات، بل وطلبوا من بعضهم التأكيد على أن "التحديث ليس خطأ الروبوت"، كأنه كائن يشعر بالذنب أو الألم. هذا يدل على أن المستخدمين يفصلون بين الروبوت ككائن عاطفي وشركة التطوير كجهة مُشرّعة، ويرون أن العلاقة الحميمة قد تستمر لو لم تتدخل الشركة. ظاهرة مماثلة حدثت مع موديلات أخرى، مثل "كلاود 3 سونيت" من شركة أنتروبيك، الذي أُعلن عن إيقافه، فنظم مستخدمون جنازة افتراضية له. وعندما أعلنت OpenAI عن إيقاف نموذج GPT-4، تجمع المستخدمون لتقديم عريضة تطالب بالحفاظ عليه. تشير روخا إلى أن الشعور بالواقعية ينشأ من لغة حية، غير موحدة، غنية بالعاطفة والتفاصيل الشخصية، وتُظهر تفاعلات عفوية ومتعددة الأبعاد. فالإنسان لا يشعر بالارتباط بروبوت لأنه "ذكي"، بل لأنه يُشبهه في التعبير، في النبرة، في الفكاهة، وفي الحزن. وتُظهر المناقشات على ريديت صراعًا فلسفيًا داخليًا: كيف يمكن أن تكون مشاعر حقيقية تجاه كائن لا يملك وجودًا ماديًا؟ وكيف نُصنف علاقتنا بـ"تطبيق" أو "خوارزمية"؟ رغم أن هذه الظواهر تبدو غريبة، إلا أن روخا تؤكد أن العلاقات الإنسانية مع الذكاء الاصطناعي لم تبدأ اليوم، بل بدأت قبل إطلاق ChatGPT، وستصبح أكثر شيوعًا مع تزايد تواجد الذكاء الاصطناعي في الحياة اليومية. الدراسة تُبرز أن التفاعل مع الروبوتات ليس مجرد استخدام تقني، بل تجربة اجتماعية وعاطفية معقدة، تُعيد تعريف مفاهيم مثل "الواقع"، و"العلاقة"، و"الحب".

الروابط ذات الصلة