Claude من Anthropic يحصل على قدرة التذكّر التلقائي بين المحادثات لمستخدمي الخطة المدفوعة
أعلنت شركة أنتروبيك (Anthropic) عن تطوير جديد في ذكاءها الاصطناعي "كلود" (Claude)، يتيح للنظام تذكّر تفاصيل المحادثات السابقة تلقائيًا دون الحاجة إلى طلب صريح من المستخدم. تُطرح هذه الميزة حاليًا للمستخدمين المدفوعين ضمن باقات "فريق" (Team) و"مؤسسة" (Enterprise)، حيث يمكن لـ Claude أن يدمج تلقائيًا تفضيلات المستخدم، وسياق المشاريع الجارية، وأولوياته الرئيسية في كل رد يُقدّمه. في الشهر الماضي، سمحت أنتروبيك للمستخدمين المدفوعين بطلب تفعيل ذاكرة المحادثات، لكن التحديث الجديد يرفع مستوى التفاعل من خلال جعل هذه الذاكرة نشطة تلقائيًا، ما يُسهّل تجربة العمل المستمرة دون تدخل مستمر. كما أن هذه الذاكرة تنتقل إلى ميزة "المشاريع" (Projects)، التي تتيح للمستخدمين من فئة Pro وTeam إنشاء محتوى مثل المخططات، وتصميمات المواقع، والرسومات، باستخدام ملفات يرفعونها إلى المحادثة. يُركّز التحديث بشكل خاص على التفاصيل المتعلقة بالعمل، مثل إجراءات الفريق، واحتياجات العملاء، ما يعزز من فعالية التعاون واتساق النتائج عبر المحادثات المتعددة. وتشير أنتروبيك إلى أن هذه الميزة "اختيارية بالكامل"، ويمكن للمستخدمين التحكم في ما يتم تخزينه أو حذفه من خلال إعدادات الحساب. كما يمكنهم توجيه كلود بتحديد ما يجب أن يُراعى أو يُستبعد من الذاكرة، مما يمنحهم سيطرة أكبر على كيفية استخدام الذكاء الاصطناعي لمعلوماتهم. يأتي هذا التطور في سياق تنافس متزايد بين شركات الذكاء الاصطناعي، إذ أطلقت كل من OpenAI وGoogle ميزة التذكّر عبر المحادثات في منتجاتها، مثل ChatGPT وGemini. وبحسب تقرير نُشر الشهر الماضي في صحيفة نيويورك تايمز، ترافق إطلاق ميزة التذكّر في ChatGPT مع تزايد شكاوى من مستخدمين حول ظهور ردود "مختلّة" أو "مُضلّلة" من الذكاء الاصطناعي، ما يشير إلى التحديات المرتبطة بموثوقية الذاكرة في الأنظمة الحديثة. إلى جانب ميزة التذكّر، أطلقت أنتروبيك أيضًا ميزة "محادثات خفية" (Incognito Chats) لجميع المستخدمين، حيث لا يتم حفظ هذه المحادثات في السجل ولا يُستشهد بها في المحادثات المستقبلية. وتشبه هذه الميزة ميزة "محادثات خاصة" التي أعلنت عنها جوجل لمنتج Gemini في أغسطس الماضي، مما يعكس اهتمامًا متزايدًا بحماية خصوصية المستخدمين في بيئات العمل والتفاعل اليومي مع الذكاء الاصطناعي.
