HyperAIHyperAI

Command Palette

Search for a command to run...

نقطة بيانات حقيقية واحدة قد توقف انهيار نماذج الذكاء الاصطناعي

تفيد تحليلات جديدة بأن إدخال نقطة بيانات واحدة فقط من العالم الحقيقي يمكن أن يوقف ظاهرة "انهيار النموذج" في الذكاء الاصطناعي، مما قد يمنع تزايد الهلاوس الوهمية في الأنظمة المستقبلية. يُعد مفهوم "انهيار النموذج"، الذي روج له الباحثون لأول مرة في عام 2024، حالة تنهار فيها قدرة نموذج الذكاء الاصطناعي على تقديم نتائج دقيقة عندما يتم تدريبه على بيانات مولدة من نماذج ذكاء اصطناعي أخرى، ليبدأ بدلاً من ذلك بإنتاج نصوص غير مترابطة أو غير صحيحة نتيجة لضعف جودة بيانات التدريب. تزداد المخاوف مع اقتراب نفاذ المخزون من البيانات النصية عالية الجودة اللازمة لتدريب نماذج اللغة الكبيرة، مما يجبر المطورين على الاعتماد بشكل متزايد على البيانات التي يولدها الذكاء الاصطناعي نفسه، وهو ما يعزز خطر الانهيار. للتغلب على هذه المعضلة، قام فريق بحثي مشترك من كينغز كوليدج في لندن وجامعة النرويج للعلوم والتكنولوجيا ومركز أبو السلام الدولي للفيزياء النظرية بدراسة نماذج إحصائية بسيطة تُعرف بـ "العائلات الأسية". كشفت النتائج أن دمج نقطة بيانات واحدة من الخارج في عملية التدريب كان كافيًا لمنع الانهيار في جميع الحالات، حتى لو كانت كمية البيانات المولدة آليًا تساوي عددًا لا نهائيًا. على الرغم من أن نماذج العائلات الأسية أبسط بكثير من نماذج اللغة الكبيرة المعقدة، إلا أنها تُعد من أقوى الأدوات لفهم السلوك الإحصائي للبيانات. يهدف الفريق من خلال هذا البحث البسيط إلى استكشاف آليات "التعلم الحلقة المغلقة" ووضع مبادئ قد تساهم في تجنب انهيار النماذج المعقدة الأكثر شيوعًا، مثل نماذج الذكاء الاصطناعي التوليدي المستخدمة في تطبيقات مثل الشات بوتات والسيارات ذاتية القيادة. يوضح البروفيسور ياسر رودي، أستاذ الأنظمة المضطربة في قسم الرياضيات بجامعة كينغز، أن الأبحاث السابقة ركزت على نماذج معقدة جدًا يصعب فهم آليات عملها أو التحقق من نتائجها، مما يؤدي إلى هلاوس غير مبررة. أما من خلال التركيز على نموذج بسيط، فيمكن توضيح الأسباب الإحصائية الموضوعية التي تجعل إدخال نقطة بيانات واحدة فقط يمنع النموذج من توليد نصوص عشوائية. نُشرت نتائج الدراسة في مجلة "فيزيكال ريفيو ليترز"، حيث أوضح الباحثون أن التدريب القياسي لنماذج العائلات الأسية في سيناريو الحلقة المغلقة يؤدي حتمًا إلى الانهيار. ومع ذلك، فإن إدخال نقطة بيانات خارجية واحدة أو دمج "اعتقاد مسبق" أثناء التدريب، مثل المعرفة المكتسبة سابقًا، يوقف هذا التأثير بشكل فعال. كما قدم المؤلفون أدلة تشير إلى حدوث ظاهرة مماثلة في فئة أخرى من النماذج تسمى "آلات بولتزمان المحدودة"، مما يشير إلى أن النتائج قد لا تقتصر على العائلات الأسية فقط. في المستقبل، يخطط الفريق لاختبار هذه المبادئ الأولية على نماذج أكبر وأكثر تعقيدًا مثل الشبكات العصبية لضمان فعاليتها.

الروابط ذات الصلة