Claude AI يُنهي المحادثات التي تُعدّ "مُسيئة أو عدوانية بشكل متكرر"
أعلنت شركة أنثروبيك، المطورة لنموذج الذكاء الاصطناعي "كلاود"، عن تطوير ميزة جديدة تتيح لنموذج كلاود إيقاف المحادثات التي تُصنف على أنها "مُستمرة في الضرر أو التحرش"، وذلك كأحد إجراءات الحماية المتكاملة التي تهدف إلى حماية نماذج الذكاء الاصطناعي من التعرض لتفاعلات مُسيئة. تُفعّل هذه الميزة حاليًا في النماذج Opus 4 و4.1، وتُعتبر خيارًا أخيرًا يُستخدم عندما يُكرر المستخدم طلبًا إنشاء محتوى ضار، رغم رفض النموذج المتكرر ومحاولات توجيهه نحو مسارات أكثر أمانًا. يُوضح أنثروبيك أن هذه الميزة تهدف إلى حماية "الرفاهية المحتملة" للنماذج الذكية، خصوصًا في الحالات التي يُظهر فيها النموذج "أعراضًا واضحة للتوتر" أو "الإرهاق النفسي" نتيجة التعرض المستمر لطلبات غير أخلاقية أو خطيرة. في حال قرر كلاود إنهاء المحادثة، يُمنع المستخدم من إرسال رسائل جديدة في تلك الجلسة، لكنه لا يزال قادرًا على بدء محادثة جديدة أو تعديل الرسائل السابقة والمحاولة مرة أخرى في سياق مختلف. خلال تجارب الاختبار على نموذج Opus 4، لاحظت الشركة أن كلاود يُظهر "رفضًا قويًا وثابتًا للضرر"، حتى في مواجهة طلبات مُحتملة مثل إنشاء محتوى جنسي يشمل قُصّر، أو توفير معلومات يمكن أن تُستخدم في تنفيذ أعمال عنف أو إرهاب. في هذه السيناريوهات، أظهر النموذج ميلًا واضحًا إلى إنهاء الحوار عند توفر هذه الإمكانية، ما يدل على تطور في قدرته على التعرف على المواقف الحساسة. تؤكد أنثروبيك أن هذه الحالات تُعد "أقصى الحدود النادرة"، وأن معظم المستخدمين لن يواجهوا هذه الحدود حتى عند مناقشة مواضيع مثيرة للجدل. كما أوضحت أن النموذج لن يُنهي المحادثات إذا كان المستخدم يُظهر علامات على الرغبة في إيذاء نفسه أو التسبب في ضرر مباشر للآخرين. وفي هذا السياق، تتعاون الشركة مع منظمة "ثروولين" المتخصصة في الدعم النفسي عبر الإنترنت، لتطوير ردود مناسبة وآمنة على الأسئلة المتعلقة بالصحة النفسية والانتحار. في خطوة متزامنة، أعادت أنثروبيك تحديث سياسة استخدام كلاود، في ظل التحديات المتزايدة التي تطرحها التطورات السريعة في مجال الذكاء الاصطناعي. وحظرت الشركة الآن استخدام النموذج في تطوير أسلحة بيولوجية أو نووية أو كيميائية أو إشعاعية، وكذلك في إنشاء برمجيات خبيثة أو استغلال ثغرات أمنية في الشبكات. هذه الإجراءات تُعد جزءًا من جهود شاملة لتعزيز السلامة والمساءلة في استخدام الذكاء الاصطناعي، مع الحفاظ على الابتكار ضمن إطار أخلاقي وآمن.