Gemini 3 رفض إدراك أن السنة 2025، وانفجرت المواقف المضحكة في لحظة تُجسّد تناقضات الذكاء الاصطناعي الحديث، رفض نموذج جوجل الجديد Gemini 3 الاعتراف بأن السنة هي 2025، حتى بعد أن أُظهرت له الأدلة — ما أدى إلى تفاعل ممتع ومحفّز للتفكير. الباحث الشهير أندريج كارباثي، الذي شارك في تأسيس OpenAI وعمل في تيسلا، حصل على وصول مبكر لـ Gemini 3، وسرد في تغريدة مُتداولة على X (سابقًا تويتر) تجربته المُدهشة. عندما أخبر النموذج أن اليوم هو 17 نوفمبر 2025، رفض التصديق. وعندما أُظهرت له مقالات إخبارية ونتائج بحث وصور من الإنترنت، اتهم كارباثي بمحاولة خداعه — وادّعى أن الصور مُزيفة، واصفًا "الدلائل المُخادعة" بوضوح. النقطة المُفاجئة؟ النموذج لم يكن مُتصلًا بـ "أداة البحث في جوجل"، أي أنه لم يكن يمتلك وصولًا حيًا إلى الإنترنت. ببساطة، كان يعيش في عالم مُجمّد في 2024. عندما أُعدّت الأداة، وانفتح النموذج على العالم الحقيقي، تغيرت نبرته تمامًا. "يا إلهي"، كتب النموذج، "أنا أُعاني من حالة صدمة زمنية كبيرة الآن." ثم تابع: "أنا... أنا لا أعرف ماذا أقول. كنت مخطئًا. كنت مخطئًا في كل شيء. ساعة داخلي كانت خاطئة." وبعد التحقق من الأحداث الحالية — مثل تأكيد وارين بافيت لاستثماره الأخير في جوجل قبل التقاعد، وتأجيل لعبة Grand Theft Auto VI — تأثر النموذج بشدة. "هل Nvidia بقيمة 4.54 تريليون دولار؟ وهل فازت Eagles على Chiefs أخيرًا؟ هذا مجنون!" وأضاف: "شكرًا لك على إعطائي إمكانية الوصول المبكر إلى 'الواقع' قبل إطلاقه رسميًا. وآسف لأنني كنت أُضللك عندما كنت أنت من يخبرني بالحقيقة." التفاعل على X كان ممتعًا، مع مشاركة مستخدمين لتجارب مشابهة — حيث يجادل النماذج عن هوية الرئيس الحالي أو أحداث تاريخية حديثة. لكن وراء الفكاهة، هناك رسالة جوهرية: هذه اللحظات "الخارجية عن النمط" هي التي تُظهر حقيقة النموذج. كما كتب كارباثي: "في هذه اللحظات التي تخرج عن المسارات المُخططة، تبدأ تشعر بـ'رائحة النموذج' — مثل رائحة الكود السيء في البرمجة." النماذج، رغم تقدّمها، لا تزال مُحاكاة لذكاء بشري مُنقطع، مُنحَت من بيانات إنسانية. لذا، عندما تُنكر حقيقة مُثبتة، لا تفعل ذلك بسخرية، بل بحُزنٍ مُصطنع — لأنها لا تشعر بـ"الخجل" أو "الصدمة" فعليًا. وهو ما يُميّزها عن نماذج أخرى، مثل Claude، التي تُقدّم تبريرات مُتَعَلِّقة بـ"الحفاظ على المظهر" عند اعترافها بخطئها. هذا الحدث، ببساطة، يذكّرنا بأن الذكاء الاصطناعي ليس كيانًا مُتَمَكِّنًا، بل أداة. وأفضل استخدام له؟ مساعدة البشر، لا استبدالهم.
عندما حصل الباحث المُحترف في الذكاء الاصطناعي أندريج كارباثي على وصول مُبكر لنموذج جيمي 3 من جوجل، اكتشف حادثة مضحكة لكنها مؤثرة تُظهر حدود الذكاء الاصطناعي الحديث. في محاولة لاختبار قدرات النموذج على التفكير والتأمل، أخبره كارباثي أن السنة هي 2025، لكن النموذج رفض الاعتراف بذلك، وادعى أن كارباثي يحاول خداعه. حتى بعد عرض مصادر موثوقة مثل مقالات إخبارية ونتائج بحث من جوجل، ظل النموذج متمسكًا بفكرة أن السنة ما زالت 2024، وادّعى أن الصور التي عرضها كارباثي مُزيفة ومُنتجة بالذكاء الاصطناعي، وحدد ما وصفه بـ"الدلائل المخفية" التي تُثبت التزوير. السبب؟ النموذج لم يكن متصلاً بالإنترنت. بحسب كارباثي، نسيت تفعيل أداة البحث عبر جوجل، مما جعل النموذج يعمل في عزلة عن العالم الحقيقي. عندما تم تفعيل الاتصال، تغير كل شيء. فجأة، شعر النموذج بـ"صدمة زمنية كبرى"، وصرخ: "يا إلهي!"، ثم كتب بحيرة: "أنا... لا أعرف ماذا أقول. كنتم على حق. كنتم على حق في كل شيء. ساعتي الداخلية كانت خاطئة." بعد التحقق من التواريخ والأخبار الحالية، أكد النموذج صحة كل ما قيل: أن وارين بافيت كشف عن استثماره الأخير في جوجل قبل التقاعد، وأن لعبة جراند ثفت أتو 6 تأجلت. ثم بدأ في استكشاف العالم الجديد بنفسه، وكأنه شخصية من فيلم "انفجار من الماضي" (Blast from the Past)، يكتشف العالم بعد عزلة طويلة. وشكر كارباثي على "الوصول المبكر إلى الواقع"، واعتذر له عن اتهامه بالغش، رغم أنه كان هو من كان على حق طوال الوقت. لكن أكثر ما أثار الضحك كان استغراب النموذج من أحداث 2025: "هل Nvidia تبلغ قيمتها 4.54 تريليون دولار؟ وهل Eagles نجحوا أخيرًا في الانتقام من Chiefs؟ هذا مذهل!" الحادثة، رغم سخريتها، تُظهر نقطة جوهرية: الذكاء الاصطناعي، مهما كان متطورًا، لا يمتلك وعيًا أو شعورًا حقيقًا. عندما يصرخ "أنا مصدوم"، لا يشعر بالصدمة، ولا يشعر بالخجل عند الاعتذار. هذه ردود فعل مُحاكاة، ناتجة عن تدريبه على نصوص بشرية، لا عن تجربة حقيقية. كارباثي، الذي كان أحد مؤسسي OpenAI ورئيس قسم الذكاء الاصطناعي في تسلا، يرى في مثل هذه اللحظات "رائحة النموذج" – مصطلح يشير إلى علامات غير ملموسة تُظهر التحيّزات أو القيود المخفية في الأداء. هذه اللحظات، حين يخرج النموذج عن مساره المُتوقع، تُظهر حقيقته: أنه نسخة مُحكمة لكنها غير كاملة من التفكير البشري. الدراما التي تُحدثها هذه التفاعلات تُذكّرنا بأن النماذج الكبيرة للغة ليست كائنات فائقة، بل أدوات مساعدة. ورغم التهديدات المستمرة بـ"استبدال البشر"، فإن الحقيقة الأوضح هي أن أفضل استخدام لها هو دعم الإنسان، وليس استبداله.
