تعزيز دقة أنظمة الذكاء الاصطناعي عبر دوائر القرار المعتمدة على التقنيات الإلكترونية
تحقيق الثقة في نماذج الذكاء الاصطناعي باستخدام دوائر القرار الذكاء الاصطناعي أصبح جزءًا أساسيًا من حياتنا اليومية، حيث يمكن لأجهزة الذكاء الاصطناعي التفاعل مع العالم من حولها، كتابة المقالات، والقيام بالأعمال نيابة عن البشر. ومع ذلك، تظل مشكلة الخطأ محور اهتمام كبير، خاصة عند الحاجة إلى مراجعة بشرية لتحديد النتائج النهائية. تحديات عملية الوكيل الذكي في عملية الوكيل الذكي التي تعامل مع مكالمات العملاء وتقوم بتصنيفها، يمكن للوكيل أن يحقق دقة عالية تبلغ 99.95٪. ومع ذلك، حتى في هذه الدقة العالية، قد يخطئ الوكيل في تصنيف خمس مكالمات من كل 10,000 مكالمة. المشكلة تكمن في عدم القدرة على تحديد أي الخمس مكالمات هي التي تم تصنيفها بشكل خاطئ، مما يتطلب مراجعة بشرية لكل المكالمات، مما يعيدنا إلى نقطة الاختناق نفسها. تقنية LLM-as-a-Judge تقنية LLM-as-a-Judge تستخدم وكيلًا آخر لفحص صحة النتائج التي تم إنتاجها من قبل الوكيل الأول. ومع ذلك، هذه التقنية أيضًا ليست دقيقة تمامًا، حيث يمكن للوكيل الثاني أن يخطئ في الحكم على النتائج. هذا يؤدي إلى إنشاء مصفوفة الالتباس، التي تضم النتائج الصحيحة والخاطئة. دوائر القرار في الذكاء الاصطناعي لحل هذه المشكلة، يمكن استخدام مفاهيم الاعتبار والتصحيح المستوحاة من الدوائر الإلكترونية. هذه الدوائر يمكن أن تُعمَل باستخدام عدة وكيلات ذكاء اصطناعي مختلفة للوصول إلى نتائج أكثر دقة: معالجة متعددة: يتم معالجة الإدخال نفسه بواسطة وكيلات متعددة بشكل مستقل. آليات الإجماع: يتم دمج نتائج القرار باستخدام أنظمة التصويت أو المتوسطات المرجحة. وكيلات التحقق: وكيلات متخصصة تتحقق من صحة النتائج. Integration of Human Oversight: تدخل بشرية استراتيجية في نقاط حاسمة من عملية القرار. الأساس الرياضي لدوائر القرار في الذكاء الاصطناعي يمكن تقدير موثوقية هذه الأنظمة باستخدام نظرية الاحتمالات. على سبيل المثال، لو كان لدينا وكيل بدقة 90٪، فإن احتمال فشله هو 10٪. احتمال فشل وكيلين مستقلين في نفس الإدخال هو ضرب احتمالياتهم معًا، مما يقلل من احتمال الخطأ. خطوات المنطق في نظام القرار عند فشل ضبط الجودة: إذا رفض وكيل التحقق الرئيسي النتيجة، يتم اللجوء إلى الوكيل البديل. إذا لم ينجح الوكيل البديل أيضًا، يتم توجيه الحالة للمراجعة البشرية. ** التعامل مع التناقضات**: إذا قالت الوكيلة السلبية إن الإدخال لا يمكن تصنيفه ولكن الوكيلة الرئيسية قدمت تصنيفًا، يتم اللجوء إلى الوكيل البديل كمُحلِّف النزاع. إذا استمر التناقض، يتم توجيه الحالة للمراجعة البشرية. عند اتفاق الخبراء: إذا وصل الوكيلان الرئيسي والبديل إلى نفس النتيجة بشكل مستقل، يتم وضع ثقة عالية في النتيجة. التعامل الافتراضي: إذا لم تُطبَّق الحالات الخاصة، يتم اللجوء إلى نتيجة الوكيل الرئيسي مع ثقة متوسطة. إذا فشل حتى الوكيل الرئيسي في تحديد تصنيف، يتم توجيه الحالة للمراجعة البشرية. تطبيق على بيانات واقعية في عام 2015، نشرت دائرة المياه في فيلادلفيا عدد مكالمات العملاء حسب الفئة. يمكن استخدام وكيل ذكاء اصطناعي لفهم وتصنيف هذه المكالمات بسرعة أكبر بكثير من البشر. تم إجراء تجربة باستخدام نموذج LLM "Claude" وأظهرت أن 91٪ من المكالمات تم تصنيفها بشكل صحيح. ومع ذلك، في حالة عدم معرفة الفئة الحقيقية مسبقًا، سنحتاج إلى مراجعة جميع المكالمات الـ10,000 لمعرفة الـ9 المكالمات التي تم تصنيفها بشكل خاطئ. تحسين نظام القرار بعد تطبيق نظام دوائر القرار المذكور أعلاه، حصلنا على دقة مماثلة مع زيادة الثقة في النتائج. في هذه الحالة، بلغت الدقة الكلية 87٪ ولكن الدقة في النتائج ذات الثقة العالية 92.5٪. هذا يسمح لنا بتحليل أسباب عدم صحة النتائج ذات الثقة العالية، مثل تحسين الدقة في التشجيع وفي قدرة التحقق. تقنيات التحقق الإضافية محلل ثالث: إضافة طريقة تحليل مستقلة ثالثة. تطابق الأنماط التاريخية: مقارنة مع حالات صحيحة تاريخية. اختبارات المعادلة: تطبيق تغييرات صغيرة على الإدخال وفحص استقرار التصنيف. تصميم النظام المُحسَّن تظهر الصيغة المستخدمة معلومات مهمة حول فعالية الحل في الوقت الحقيقي. على سبيل المثال، في حالة 10,000 تنفيذ، يتوقع أن يتم توجيه حوالي 352 حالة لمراجعة بشرية. يمكن استخدام هذه المعلومات لتتبع أداء النظام وتحسينه. دالة التكلفة يمكن تحديد دالة تكلفة لمساعدتنا في ضبط النظام. تشمل هذه الدالة تكلفة تدخل البشر وتلك التي تتعلق بالerreurs غير المكتشفة. على سبيل المثال: تكلفة التدخل البشري: $70,400 تكلفة الأخطاء غير المكتشفة: $48,000 عن طريق تحليل هذه التكاليف، يمكننا تحسين النظام بشكل أكثر فعالية. على سبيل المثال، لتخفيض عدد الأخطاء غير المكتشفة بنسبة 50٪، يمكننا اختيار أحد الخيارات التالية: - إضافة محلل جديد بدقة 50٪. - تحسين الدقة للمحللين الحاليين بنسبة 10٪ لكل منهما. - تحسين عملية التحقق بنسبة 15٪. مستقبل موثوقية الذكاء الاصطناعي: بناء الثقة عبر الدقة مع زيادة التكامل بين أنظمة الذكاء الاصطناعي وقطاعات الأعمال والمجتمع الحساسة، سيصبح السعي وراء الدقة الكاملة أمرًا ضروريًا. من خلال تبني مقاربات مستوحاة من الدوائر لتحقيق قرار الذكاء الاصطناعي، يمكننا بناء أنظمة ليس فقط تحقق الدقة ولكن أيضًا تضمنها رياضيًا. المستقبل ينتمي إلى الأنظمة المصممة بعناية والتي تجمع بين وجهات نظر متعددة مع الرقابة البشرية الاستراتيجية. تقييم الحدث من قبل المتخصصين يرى الخبراء أن هذا النهج يمثل خطوة كبيرة نحو زيادة موثوقية أنظمة الذكاء الاصطناعي. من خلال استخدام دوائر القرار، يمكن تقليل الأخطاء وتوجيه المراجعة البشرية إلى الحالات التي تحتاج إليها فعليًا، مما يزيد من كفاءة النظام ويحسن تجربة المستخدم. هذا النهج يضع الأساس لما سيكون عليه المعايير القياسية لأنظمة الذكاء الاصطناعي الحاسمة في المستقبل. نبذة تعريفية عن الشركة "RobustCallClassifier" هي شركة متخصصة في تطوير حلول الذكاء الاصطناعي لتحسين عمليات خدمة العملاء. تركز الشركة على تطبيق مفاهيم الاعتبار والتصحيح المستوحاة من الدوائر الإلكترونية لتوفير أنظمة قرار أكثر دقة وموثوقية. تعتبر "RobustCallClassifier" من رواد هذا المجال، وتسعى باستمرار لتحسين تقنياتها وتقديم حلول مبتكرة تساعد الشركات على تحقيق أهدافها بشكل أكثر فعالية.
