نموذج العالم يعود بقوة في مساعي الذكاء الاصطناعي نحو الذكاء العام
في محاولة لبناء ذكاء اصطناعي عام (AGI)، يشهد مفهوم "نموذج العالم" — تمثيل داخلي مبسط للبيئة يمتلكه النظام الاصطناعي — عودة قوية بعد سنوات من التهميش. يُشبه هذا النموذج كرّة ثلج افتراضية داخل ذكاء اصطناعي، تُستخدم لاختبار التنبؤات والقرارات قبل تطبيقها في العالم الحقيقي. يؤمن مُرشحون بارزون مثل يان لكين (Meta)، ديميس هاسابيس (DeepMind)، ويوشوا بينغو (Mila) بأن هذا المفهوم جوهرى لبناء أنظمة ذكية، علمية، وآمنة. الفكرة ليست جديدة: في 1943، طرح عالم النفس السكوتلندي كينيث كرايك فكرة أن الدماغ يحتوي على "نموذج صغير للواقع الخارجي"، مما يمكّنه من تجريب سيناريوهات افتراضية دون الحاجة إلى تجربة فعلية. هذه الفكرة سبقت ثورة الذكاء الاصطناعي بعقود، وربطت بين التفكير والحساب، وسجّلت ميلاد مفهوم التمثيل الداخلي للواقع. في الستينيات، ظهر نظام SHRDLU الذي استخدم نموذجًا بسيطًا للعالم المكاني (مكعبات على طاولة) للإجابة على أسئلة منطقية، لكنه فشل في التوسع بسبب تعقيد البيئات الحقيقية. بحلول الثمانينيات، رفض رودني بروكس، أحد أعلام الروبوتات، النماذج التمثيلية، مُصرًا على أن "العالم نفسه هو أفضل نموذج"، وأن التمثيلات الصريحة تُعيق الأداء. لكن ظهور التعلم العميق، خصوصًا الشبكات العصبية العميقة، عاد بقوة إلى مفهوم النموذج. بدلاً من القواعد المكتوبة يدويًا، تعلّمت الشبكات من تجارب متكررة، وبدأت في تمثيل بيئات تدريبها بشكل تجريبي. مع ظهور نماذج لغوية ضخمة (LLMs) مثل ChatGPT، أظهرت قدرات غير متوقعة — مثل تفسير رموز تعبيرية أو لعب ألعاب — ما دفع بعض الخبراء إلى الاعتقاد بأنها تمتلك "نموذجًا داخليًا للواقع"، كما تنبأ كرايك. لكن الأدلة الحالية تشير إلى عكس ذلك: ما تمتلكه هذه النماذج ليس نموذجًا متماسكًا، بل "حزمة من القواعد التجريبية" غير المرتبطة، تشبه قصة "الرجال العمي الذين لمسوا الفيل"، حيث كل جزء يُفهم بشكل منفصل دون فهم شامل. عند محاولة استخلاص تمثيل متناسق لواقع مثل لوحة لعبة أوثيلو، يُكتشف فقط قطع متفرقة — مثل "حبل" أو "شجرة" — لا تشكل صورة متكاملة. رغم ذلك، هذه القواعد لا تزال فعّالة: يمكن للنماذج أن تُقدّم إرشادات دقيقة للتنقل في مانهاتن دون الحاجة إلى نموذج مكاني كامل، كما أظهرت دراسة من هارفارد وMIT. لكنها تفشل أمام التحديات البسيطة: عند إغلاق 1% من الشوارع، تنخفض دقتها بشكل حاد. بينما لو كانت تمتلك نموذجًا متماسكًا للشبكة الحضرية، لاستطاعت إعادة التوجيه بسلاسة. لهذا السبب، يُعدّ بناء نماذج عالم متماسكة هدفًا استراتيجيًا. فهي قد تقلل من "الهلوسة" في الذكاء الاصطناعي، وتعزز التفكير المنطقي، وتجعل الأنظمة أكثر شفافية وموثوقية. اليوم، تُراهن شركات كـ DeepMind وOpenAI على أن النموذج سيتشكل تلقائيًا من خلال تدريب على بيانات متعددة الوسائط (فيديو، نماذج ثلاثية الأبعاد). بينما يرى لكين أن بناء هيكل جديد، غير مولد، هو المفتاح. السؤال لا يزال: هل نحن قريبون من "الكرّة الثلجية" الحقيقية؟ لا أحد يعرف. لكن الجوائز — من الذكاء العام إلى النظم الآمنة — تستحق المحاولة.