الاعتماد على الذكاء الاصطناعي من الأعلى إلى الأسفل يتفوق دائمًا — إلا عندما لا ينجح
في عالم التحول الرقمي، يواجه قادة الشركات تحديًا جديدًا لا يُشبه أي تجربة سابقة: تبني الذكاء الاصطناعي التوليدي. بينما اعتادت المؤسسات على نموذج "من الأعلى إلى الأسفل" — حيث تُحدد الاستراتيجيات من قبل الإدارة العليا، وتُنفذ بتحكم مركزي — تُظهر التجارب أن هذا النموذج يفشل بشكل متكرر مع أدوات الذكاء الاصطناعي، بل قد يُضر بالكفاءة بدلاً من تعزيزها. السبب يكمن في طبيعة الذكاء الاصطناعي: أدواته تتطور بسرعة هائلة، ونتائجها غير متوقعة، وتتطلب مهارات فردية متقدمة في التعامل معها. على عكس أنظمة ERP أو سحابة الحوسبة التي يمكن التنبؤ بسلوكها، فإن أدوات مثل ChatGPT أو GitHub Copilot تتغير شهريًا، وتُحدث نماذجها الجديدة دون إشعار، وتُنتج نتائج مختلفة حتى عند استخدام نفس المدخلات. هذا يُعطل نماذج الإدارة التقليدية التي تعتمد على التخطيط المسبق، والموافقة الرسمية، والتدريب المركزي. عندما تفرض الإدارة العليا استخدام أدوات الذكاء الاصطناعي، غالبًا ما تُبطئ الإجراءات الإدارية والقانونية من سرعة التجربة. في أحد الأمثلة، استغرق موافقة شركة على استخدام ChatGPT Enterprise أربعة أشهر، بينما خلال هذه الفترة تحوّل المطورون إلى أدوات أخرى مثل Claude وCursor. كما أن الإجراءات الأمنية والتوثيق المطلوب تُلغِي الفائدة الأساسية من الذكاء الاصطناعي: السرعة والانسيابية في التصميم والتجريب. النتيجة؟ تُصبح المبادرات الرسمية عبئًا. فبينما تُخطط الإدارة، يبدأ المطورون في استخدام أدوات الذكاء الاصطناعي بشكل غير رسمي — عبر Slack، أو مجموعات داخلية، أو مشاركة نصوص بروتوكولات (Prompts) — مما يُشكّل شبكة تعلم غير رسمية فعّالة. دراسات تظهر أن 84% من المطورين جربوا أدوات الذكاء الاصطناعي، و44% يستخدمونها بانتظام، رغم أن 68% منهم لا يخبرون مديريهم. أمثلة واقعية تؤكد هذا التحول: فريق في Shopify بدأ استخدام GitHub Copilot قبل حتى أن يُمكنهم شراؤه، بدعم من فريق قانوني يتعاون لحل التحديات. وصلت نسبة الاستخدام إلى 80% خلال فترة قصيرة، وتمت ملاحظة تحسينات كبيرة في الإنتاجية. اليوم، يُستخدم أكثر من 24,000 سطر من الكود المُولّد تلقائيًا يوميًا، دون أي توجيه رسمي. الدروس المستفادة؟ قادة التكنولوجيا الناجحون لا يُسيطرون على الذكاء الاصطناعي، بل يُمكّنونه. بدلاً من وضع استراتيجيات معقدة، يركزون على تمكين الفرق: توفير أدوات آمنة، وتسهيل الوصول، وتمكين التجريب، ودعم مشاركة المعرفة. يُنشئون بيئة آمنة للخطأ، ويدعمون المبادرات الفردية، ويُقيّمون النتائج، لا الالتزام بالاستخدام. النموذج الناجح هو: "الافتراض بالموافقة، إزالة العوائق، تمويل التجارب". يُصبح الترخيص تلقائيًا إذا تمت الالتزام بالحد الأدنى من معايير الأمان. تُخصص ميزانيات مباشرة للفرق لتجريب الأدوات دون موافقة. تُشجع المبادرات الداخلية، وتُنشر قصص النجاح دون فرض أدوات محددة. الذكاء الاصطناعي لا يُدار بالسياسات فقط، بل يُبنى بالتجربة. المؤسسات التي تُدرك أن النمو الحقيقي يأتي من الأسفل، وتُعزز من قدرات فرقها، ستكون هي الفائزة في العقد القادم. القادة الذين يتحولون من "التحكم" إلى "التمكين" سيُشكّلون مستقبل التكنولوجيا المؤسسية.
