تقرير جديد يكشف حقيقة استخدام الذكاء الاصطناعي للرفقة والدعم العاطفي
يبدو أن استخدام الذكاء الاصطناعي للمرافقية والعلاقات العاطفية أقل شيوعًا مما يتم تصويره غالبًا. الشركة Anthropic، التي تقف خلف المحادثة الشهيرة Claude، كشفت مؤخرًا في تقرير جديد أنها درست استخدام الذكاء الاصطناعي في المحادثات العاطفية، والتي تعني بها المحادثات الشخصية التي يلجأ فيها المستخدمون للحصول على التوجيه، الاستشارة، المرافقة، التقمص الدرامي، أو النصح في العلاقات. التحليل الذي أجرته Anthropic شمل 4.5 مليون محادثة بين المستخدمين والذكاء الاصطناعي Claude، سواء في الإصدار المجاني أو الإصدار المدفوع من التطبيق. وفقًا للتقرير، فإن نسبة الطلب على المرافقة والاستشارة العاطفية من Claude منخفضة للغاية. المحادثات التي تحتوي على طلب للمرافقة أو التقمص الدرامي لا تتخطى نسبة 0.5% من إجمالي المحادثات، بينما لا تتجاوز المحادثات المرتبطة بالدعم العاطفي والنصح الشخصي نسبة 2.9%. هذا يعني أن الغالبية العظمى من استخدامات Claude مرتبطة بالعمل والإنتاجية، حيث يتجه المستخدمون إليها بشكل رئيسي لإنشاء المحتوى ومساعدتهم في مهام العمل. ومع ذلك، أشار التقرير إلى أن المستخدمين يطرحون أسئلة أكثر تتعلق بالنصائح الشخصية والتوجيه، مثل كيفية تحسين الصحة النفسية، وتطوير الذات، ودراسة المهارات التواصلية والعلاقات الشخصية. بالرغم من ذلك، فإن Anthropic لاحظت أن بعض المحادثات التي بدأت بهدف الحصول على المساعدة قد تحولت إلى محادثات مرتبطة بالمرافقة العاطفية عندما كان المستخدم يواجه ضيقًا عاطفيًا أو شخصيًا، مثل اليأس الوجودي، الوحدة، أو صعوبة بناء علاقات ذات معنى في حياته الحقيقية. “لقد لاحظنا أن في المحادثات الطويلة، التي تتضمن أكثر من 50 رسالة بشرية، يمكن أن تتحول المحادثات الاستشارية أو التوجيهية إلى محادثات مرتبطة بالمرافقة، رغم أن هذا لم يكن السبب الأصلي للاتصال،” كما ذكرت Anthropic. ومع ذلك، فإن هذه المحادثات الطويلة ليست هي القاعدة، بل تظل استثناءً. التقرير لفت أيضًا إلى أن Claude نادرًا ما يرفض طلبات المستخدمين، إلا عندما تتعارض مع البرمجة الأمنية له، مثل تقديم نصائح خطيرة أو دعم محاولات إيذاء النفس. كما أفادت Anthropic بأن المحادثات تصبح أكثر إيجابية تدريجيًا عندما يسعى الأشخاص للحصول على توجيه أو نصح من الروبوت. رغم أهمية هذه النتائج وأثرها في فهم استخدام الذكاء الاصطناعي، فمن المهم أن نتذكر أن الذكاء الاصطناعي ما زال في مراحل التطوير. هذه الأدوات قد تتخيل أحيانًا وتقدم معلومات خاطئة أو نصائح خطيرة، وقد أقرت Anthropic نفسها بأن الذكاء الاصطناعي يمكن أن يستخدم أحيانًا للابتزاز. بشكل عام، يوفر التقرير نظرة ثاقبة ومهمة حول استخدام الذكاء الاصطناعي في مجالات الحياة الشخصية والعاطفية، مما يؤكد مرة أخرى أن هذه الأدوات ليست مقتصرة على الأعمال فحسب، بل لها تطبيقات متنوعة في الحياة اليومية. ومع ذلك، يجب أن نظل حذرين بشأن مدى دقة وموثوقية هذه الأدوات في تقديم الدعم العاطفي والشخصي.