HyperAI
Back to Headlines

جوجل تخفي سلسلة التفكير في نموذج جمني 2.5 برو: تطوير مُعمي للمطورين ومخاوف شفافية للشركات

منذ 9 أيام

جوجل تخفف من شفافية نموذجها الرائد "جيميني 2.5 برو" مما يجعل المطورين يعملون "في العتمة" 20 يونيو 2025 قررت شركة جوجل مؤخرًا إخفاء الرموز الأولية للمنطق التي يقوم بها نموذجها الرائد "جيميني 2.5 برو"، وهو ما أثار رد فعل عنيفًا من المطورين الذين كانوا يعتمدون على هذه الشفافية في بناء وتصحيح التطبيقات. هذا القرار، الذي يشبه خطوة مماثلة اتخذتها شركة OpenAI، يحل محل العملية المنطقية خطوة بخطوة بموجز مبسط. سياق الحدث عند حل المشكلات المعقدة، تقوم النماذج الذكية المتقدمة بإنشاء حوار داخلي يُعرف بـ "سلسلة الفكر" (CoT)، وهي سلسلة من الخطوات الوسيطة التي ينتجها النموذج قبل الوصول إلى الإجابة النهائية. على سبيل المثال، يمكن أن يظهر كيف يتم معالجة البيانات، وما هي المعلومات التي يستخدمها، وكيف يقيم كوده الخاص، وهكذا دواليك. أهمية الشفافية للمطورين كان هذا المسار المنطقي يُعد أداة تشخيصية وتصحيحية أساسية للمطورين. عندما يوفر النموذج إجابة خاطئة أو غير متوقعة، يكشف المسار المنطقي عن المكان الذي انحرف فيه المنطق. وقد كان هذا أحد المزايا الرئيسية لـ "جيميني 2.5 برو" مقارنة بنماذج OpenAI. في منتدى المطورين لذكاء جوجل الاصطناعي، وصف المستخدمون إزالة هذه الميزة بأنها "انحدار كبير". بدونها، يجد المطورون صعوبة في تشخيص المشاكل بدقة. قال أحد المستخدمين في المنتدى: "لا أستطيع تشخيص أي مشاكل بدقة إذا لم أرَ السلسلة الأولية للتفكير كما كان الأمر في السابق". بينما وصف آخر أنه مضطر للتخمين حول سبب فشل النموذج، مما يؤدي إلى "حلقات مزعجة ومكررة لمحاولة تصحيح الأمور". تأثير على الشركات بالإضافة إلى التصحيح، تلعب هذه الشفافية دورًا حاسمًا في بناء أنظمة ذكاء اصطناعي معقدة. يعتمد المطورون على سلسلة الفكر في ضبط الدفعات والتعليمات النظامية، والتي تعد الوسائل الرئيسية لضبط سلوك النموذج. تعد هذه الميزة مهمة بشكل خاص لإنشاء سير عمل ذاتية، حيث يجب على الذكاء الاصطناعي تنفيذ سلسلة من المهام. أشار أحد المطورين إلى أن "سلاسل الفكر ساعدت كثيرًا في ضبط سير العمل الذاتي بشكل صحيح". بالنسبة للشركات، يمكن أن يكون هذا التوجه نحو الغموض أمرًا مشكلًا. تُعرِّض النماذج السوداء (black-box AI models) التي تخفي منطقها للخطر، مما يجعل من الصعب الثقة بنتائجها في السيناريوهات الحاسمة. هذا الاتجاه، الذي بدأت به شركة OpenAI بنماذجها o-series وتبنته جوجل الآن، يخلق فرصة واضحة للبدائل المفتوحة المصدر مثل DeepSeek-R1 و QwQ-32B. رد فعل جوجل في إطار الرد على الاحتجاجات، شرح أعضاء فريق جوجل أسبابهم. أوضح لوغان كيلباتريك، مدير المنتجات الكبير في جوجل ديبمايند، أن التغيير كان "خالصًا للشكل" ولا يؤثر على أداء النموذج الداخلي. أشار إلى أن بالنسبة للتطبيقات الموجهة للمستهلكين، إخفاء العملية المنطقية الطويلة يُنشئ تجربة مستخدم أنظف. قال: "نسبة الأشخاص الذين يقرأون الأفكار في تطبيق جيميني صغيرة جدًا". بالنسبة للمطورين، كان الهدف هو توفير خطوة أولى نحو الوصول إلى سلسلة الفكر برمجيًا عبر API، وهو الأمر الذي لم يكن ممكنًا سابقًا. اعترف فريق جوجل بقيمة الأفكار الأولية للمطورين. قال كيلباتريك: "أنا أسمع أنكم تريدون الأفكار الأولية، القيمة واضحة، هناك حالات استخدام تتطلبها". وأضاف أن إعادة تمكين الوصول إلى الأفكار الأولية في AI Studio التي تركز على المطورين "شيء يمكننا استكشافه". آراء الخبراء ومع ذلك، يشير الخبراء إلى أن هناك عوامل أعمق من مجرد تجربة المستخدم. يشكك الأستاذ في الذكاء الاصطناعي بجامعة ولاية أريزونا، سوبراو كامبامباتي، في أن الرموز الوسيطة التي ينتجها نموذج المنطق قبل الإجابة النهائية يمكن أن تكون دليلًا موثوقًا لفهم كيفية حل النموذج للمشكلات. وفقًا لورقة بحثية أشرف عليها حديثًا، يمكن أن تكون تفسيرات الرموز الوسيطة على أنها "أثر المنطق" أو "أفكار" خطيرة. تذهب النماذج غالبًا في اتجاهات بلا نهاية وغير مفهومة في عملية المنطق الخاصة بها. أظهرت العديد من التجارب أن النماذج التي تم تدريبها على أثر منطق خاطئ وأجوبة صحيحة يمكنها حل المشكلات بنفس الكفاءة تقريبًا مثل تلك التي تم تدريبها على أثر منطق جيد التجهيز. علاوة على ذلك، يتم تدريب النماذج الحديثة لمنطق من خلال خوارزميات التعلم التعزيزي التي تتحقق فقط من النتيجة النهائية ولا تقيم "أثر المنطق" للنموذج. "حقيقة أن سلاسل الرموز الوسيطة غالبًا ما تبدو كعمل بشري أفضل التنسيق والإملاء... لا تعطينا الكثير من المعلومات حول ما إذا كانت تُستخدم لأغراض قريبة من الأغراض التي يستخدمها البشر، أو حتى عن ما إذا يمكن استخدامها كنافذة قابلة للتفسير لما يفكر فيه النموذج اللغوي الكبير، أو كبرهان موثوق للإجابة النهائية"، يكتب الباحثون. قال كامبامباتي لـ VentureBeat: "لا يستطيع معظم المستخدمين استخلاص أي شيء من كميات كبيرة من الرموز الوسيطة التي تنتجها هذه النماذج". وأضاف أن "ديبسيك R1 تنتج 30 صفحة من النص القريب من الإنجليزية في حل مشكلة بسيطة للتخطيط! يمكن تفسير قرار OpenAI وإخفاء الرموز الأولية أصلًا بسخرية لأنهم ربما أدركوا أن الناس سيلاحظون مدى عدم اتساقها!" المنافسة والسرية يقدم قرار إخفاء سلسلة الفكر أيضًا ميزة تنافسية. تعتبر سلاسل الرموز الأولية بيانات تدريب قيمة للغاية. كما يلاحظ كامبامباتي، يمكن لمنافس استخدام هذه الأثر لإجراء "التقطير"، وهو عملية تدريب نموذج أصغر وأرخص لتقليد قدرات نموذج أكثر قوة. إخفاء الأفكار الأولية يجعل من الصعب على المنافسين نسخ وصفة النجاح السرية للنموذج، وهو ما يعد ميزة حاسمة في صناعة مكلفة ومتعطشة للموارد. مستقبل الذكاء الاصطناعي تُعتبر المناقشة حول سلسلة الفكر مقدمة لمحادثة أكبر عن مستقبل الذكاء الاصطناعي. لا يزال هناك الكثير لتعلمه عن آلية عمل نماذج المنطق وكيف يمكن الاستفادة منها، ومدى استعداد مزودي النماذج لتمكين المطورين من الوصول إليها. تقييم الحدث يسلط قرار جوجل الضوء على التوتر الحاصل بين توفير تجربة مستخدم نظيفة وجذابة وبين حاجة الشركات والمطورين إلى أدوات موثوقة وشفافة. رغم أن جوجل تعترف بأهمية الأفكار الأولية للمطورين، إلا أنها تسعى لتحقيق توازن بين هذه الحاجة والمتطلبات الأخرى مثل التحسين الجمالي والحماية من المنافسة. ومع تطور الذكاء الاصطناعي، من المتوقع أن تصبح مسألة الشفافية والمساءلة أكثر أهمية وأكثر تعقيدًا. نبذة عن جوجل تعتبر جوجل من الشركات الرائدة في مجال الذكاء الاصطناعي والتعلم العميق. تمتلك فرقًا بحثية متميزة مثل جوجل ديبمايند، وهي تعمل دائمًا على تطوير وتحسين نماذجها لتقديم حلول مبتكرة ومتطورة للمستخدمين والشركات. ومع ذلك، فإن قراراتها في هذه الصناعة غالبًا ما تثير جدلًا ونقاشًا حول أفضل الممارسات والاحتياجات المتنوعة للمستخدمين.

Related Links