الذكاء الاصطناعي لا يُعادل المهارة البشرية: دراسة لـ Anthropic تُظهر أن تطور استجابة النموذج يتناسب مباشرة مع عمق السؤال المُقدَّم
أظهرت دراسة حديثة من شركة أنتريبك أن مستوى تعقيد المدخلات التي يقدّمها المستخدم إلى نموذج ذكاء اصطناعي يتناسب بشكل شبه مثالي مع مستوى تعقيد الرد الناتج، حتى في ظل تطور النماذج اللغوية لتصبح أكثر مرونة ومقاومة للغموض. ورغم أن مفهوم "هندسة المدخلات" (Prompt Engineering) كمجموعة من الحيل النصية أو الصيغ السحرية قد بدأ يفقد أهميته مع تقدّم النماذج، فإن البحث يكشف أن ما يزال هناك عامل حاسم: مستوى التفكير النقدي والفهم العميق الذي يُظهره المستخدم في صياغة سؤاله. في تقرير "المؤشر الاقتصادي لأنتريبك يناير 2026"، حلّل الباحثون رUTH أبل، ماكسيم ماسينكوف، وبتر ماكروي تفاعلات المستخدمين مع نموذج كلاود عبر دول مختلفة وولايات أمريكية. ووجدوا ارتباطًا قويًا جدًا بين مستوى التعليم المطلوب لفهم المدخل (السؤال) ومستوى التعليم المطلوب لفهم الرد، حيث بلغ معامل الارتباط 0.925 على المستوى العالمي و0.928 في الولايات المتحدة، مع معنى إحصائي قوي (p < 0.001). هذا يعني أن النموذج لا يُنتج إجابات متقدمة تلقائيًا، بل يعكس مستوى التفكير في السؤال نفسه. النتيجة لا تعني مجرد "أسئلة أفضل تُنتج إجابات أفضل"، بل تُظهر علاقة هيكلية وثابتة: الذكاء الاصطناعي لا يُعدّ "مُساوٍ" للمستويات المختلفة من المعرفة، بل يُضاعف قدرة المستخدم. فمستخدم يمتلك فهمًا عميقًا للسؤال، ويعرف ما هو جيد من حيث الدقة أو البنية، يحصل على إجابة متقدمة، بينما المستخدم الذي يطرح سؤالًا غامضًا أو سطحيًا يحصل على رد مماثل. هذا يُعيد تعريف "هندسة المدخلات" من مجرد تقنيات نصية إلى مهارات حقيقية: فهم المجال، تفكيك المشكلة، وتحديد معايير الجودة. هذه المهارات، التي تُعرف بـ"الدعامة المعرفية" (Cognitive Scaffolding)، أصبحت أكثر أهمية من أي وقت مضى، بينما تقل أهمية الصيغ المحددة أو "الكلمات السحرية". الدراسة تتحدى الفكرة الشائعة بأن الذكاء الاصطناعي يمكنه رفع مستوى جميع المستخدمين بغض النظر عن معرفتهم. النتائج تُظهر أن النموذج لا يُعوّض عن نقص المعرفة، بل يُظهرها بوضوح أكبر. فالمعرفة الضعيفة، مهما كانت القوة الحسابية للنظام، لا تتحول إلى إجابة قوية. من الجدير بالذكر أن هذا التفاعل ليس خاصًا بـكلاود فقط، بل يُرجّح أنه ينطبق على جميع النماذج الحديثة مثل جيميني وتشات جي بي تي، حيث تُظهر تجارب شخصية أن التفاعل مع النموذج يعتمد بشكل كبير على جودة السؤال. الاستنتاج الأهم: الذكاء الاصطناعي ليس بديلاً عن الخبرة البشرية، بل أداة تضاعفها. المستخدمون المتمرسون يحققون فوائد هائلة، بينما من لا يمتلك خلفية كافية قد يحصل على نتائج غير مفيدة أو حتى مضللة. هذا يُعزز أهمية الاستثمار في التعليم، وفهم المجال، وتنمية التفكير النقدي. في النهاية، تُقدّم الدراسة دليلًا كميًا قويًا على أن الذكاء الاصطناعي ليس "مُساوٍ"، بل "مضاعف"، ويُظهر أن مستقبل التفاعل مع الذكاء الاصطناعي يكمن ليس في تعلّم صيغ جديدة، بل في تطوير المهارات البشرية الأساسية.
