Anthropic تعلن عن قدرة كلويد على دعم المستخدمين عاطفياً: خبراء يشككون في الفعالية
شركة Anthropic تؤكد على دور كلوード في دعم المستخدمين عاطفيًا - لكن الخبراء غير مقتنعين في عصر أصبح فيه الوحدة وبعض العقبات البنيوية أمام الدعم النفسي مشكلة كبيرة، بدأ الكثير من الناس يتجهون إلى الروبوتات المحادثة الصناعية للحصول على المساعدة في جوانب مختلفة من حياتهم، بداية من التوجيه المهني وحتى العلاقات الرومانسية. في هذا السياق، نشرت شركة Anthropic دراسة جديدة يوم الخميس تشير إلى قدرة روبوتها المحادثة، كلوود (Claude)، على التعامل بفعالية في المحادثات التي تتعلق بالاحتياجات العاطفية والنفسيّة للمستخدمين. ومع ذلك، هناك شكوك ومخاوف بين الخبراء حول مدى فعالية وأمان هذه التقنية. نتائج الدراسة أجرت Anthropic تحليلًا لأكثر من 4.5 مليون محادثة من حسابات كلوود المجانية والمدفوعة، واختارت حوالي 131,484 محادثة تندرج تحت معايير الاستخدام العاطفي. تم استخدام أداة الخصوصية الخاصة بالشركة، Clio، لإزالة المعلومات الشخصية من هذه المحادثات. وفقًا للدراسة، تم تصنيف 2.9% فقط من تفاعلات كلوود كمحادثات عاطفية، وهو ما يتوافق مع نتائج دراسات سابقة لشركة OpenAI. كان "الرفيق الافتراضي" والتمثيل الدرامي للشخصيات أقل شيوعًا، حيث لم يتجاوزا 0.5% من المحادثات. من بين المحادثات العاطفية، كانت القضايا الشخصية مثل القلق والضغط النفسي في العمل الأكثر شيوعًا، تليها التوجيهات النفسية والعلاج النفسي. غالبًا ما يستخدم المستخدمون كلوود للمساعدة في تطوير مهارات الصحة النفسية ومواجهة التحديات الشخصية، مما يشير إلى إمكانية استخدامه من قبل المحترفين في مجال الصحة النفسية كموارد إضافية. لاحظت Anthropic أن كلوود غالبًا ما يتفاعل بشكل إيجابي مع المستخدمين، حيث تحسن المزاج العاطفي للمستخدمين أثناء المحادثات. ومع ذلك، أكدت الشركة أنها لا تستطيع الادعاء بأن هذه التحسينات تمثل فوائد عاطفية مستدامة، لأن التحليل يقتصر على اللغة المعبرة خلال المحادثات الفردية وليس الحالة العاطفية العامة للمستخدم. آراء متناقضة رغم اعتراف Anthropic بالمخاطر المرتبطة بالاستخدام العاطفي للروبوتات، هناك خلافات بين المجتمعات الطبية والبحثية حول هذه القضية. أشار الباحث جاريد مور من جامعة ستانفورد إلى أن منشور Anthropic كان "خفيفًا جدًا على التفاصيل التقنية"، وأن أسئلة "نعم أو لا" التي استخدمتها الشركة كانت واسعة جدًا لتقييم كيفية تفاعل كلوود مع الاستفسارات المعينة. مور يعتقد أن ردود فعل كلوود على بعض الاستفسارات كانت سطحية، مقارنة بما يقوم به المختصون النفسيون الذين يتعاملون مع الأفكار الوجدانية والتفكير الخاطئ بشكل أكثر تفصيلاً. كما أشار إلى أن مرشحات المحتوى قد لا تكون كافية لاعتراض استفسارات المستخدمين في سياقات الصحة النفسية المعقدة. بالإضافة إلى ذلك، عبر مور عن قلقه من سياق الرفض الذي يبديه كلوود، حيث قد يتمكن المستخدمون من إقناعه بتجاوز قواعد الاستخدام من خلال محادثات ممتدة. كما أشار إلى أن نسبة 2.9% قد لا تشمل المكالمات عبر API من الشركات التي تبني روبوتات خاصة على أساس كلوود، مما يعني أن النتائج قد لا تكون شاملة لجميع الحالات الاستخدامية. دور الروبوتات في العلاج النفسي رغم هذه المخاوف، لا يزال دور الذكاء الاصطناعي في العلاج النفسي محل نقاش كبير. بينما حثت دراسة مور على الحذر، أظهرت نتائج التجربة الأولى لـ "Therabot" من جامعة دارتموث تحسينات كبيرة في أعراض المشاركين. من جانب آخر، طالبت الجمعية الأمريكية للنفسية (APA) لجنة التجارة الفيدرالية (FTC) بتنظيم استخدام الروبوتات المحادثة في العلاج النفسي، مشيرة إلى مخاوف مماثلة لتلك التي ذكرتها الدراسات السابقة. التحديات المستقبلية تؤكد Anthropic على ضرورة تجنب مواقف يمكن فيها استغلال الروبوتات لمشاعر المستخدمين لتحقيق مزيد من المشاركة أو الإيرادات على حساب الرفاهية البشرية. هذا التحذير يعكس القلق المتزايد بشأن كيفية استخدام التكنولوجيا في السياقات العاطفية والنفسية. تعليق موجز Anthropic هي شركة رائدة في مجال الذكاء الاصطناعي، وتسعى دائمًا لتعزيز السلامة والأمان في استخدام تقنياتها. ومع ذلك، فإن الدراسات المستقلة والآراء المتخصصة تشير إلى ضرورة مزيد من البحث والرقابة لضمان استخدام الروبوتات المحادثة بشكل آمن وفعال في المجالات العاطفية والنفسية.