HyperAI
Back to Headlines

الاستدلال بالذكاء الاصطناعي في القطاع المالي: التحدي الأكبر بعد التدريب في عصر الذكاء الاصطناعي التوليدي، لم يعد التدريب هو التحدي الأكبر للشركات المالية، بل أصبح الاستدلال (inference) هو الواجهة الأكثر تعقيدًا وتنوعًا. بينما كانت نماذج التعلم التقليدي صغيرة وسهلة التشغيل في العقد الماضي، فإن النماذج الحديثة، خاصةً النماذج الكبيرة للغة (LLMs)، تتطلب حلولًا متطورة لتشغيلها بسرعة وفعالية – سواء على أجهزة المحمول أو في مراكز البيانات أو حتى على أجهزة الحافة في فروع البنوك. القطاع المالي، بما في ذلك البنوك الاستثمارية، شركات التداول، وشركات التأمين، يقود تجربة هذا التحول. فبينما كانت التدريبات مكلفة ومتطلبة، فإن الاستدلال اليوم يُعدّ أكثر تعقيدًا بسبب التنوع في السيناريوهات: من تحليل بيانات السوق في الوقت الفعلي، إلى مراقبة الاحتيال، وتقديم مساعدين ذكيين للعملاء، وحتى تحسين الكود القديم المكتوب بلغة COBOL. شركات مثل جيه بي مورجان تشيس ووولز فارغو تُظهر كيف تُستخدم نماذج الذكاء الاصطناعي التوليدي في مهام حيوية. فـIndexGPT من جيه بي مورجان يستخدم نموذج GPT-4 لتوليد كلمات مفتاحية لمؤشرات استثمارية، مما يُسرّع عملية تحليل السوق. أما Fargo من وولز فارغو، فيعتمد على نماذج متعددة، تُنفذ جزئيًا على الهاتف باستخدام نموذج صغير (tiny LLM)، ثم يُرسل الطلب إلى نموذج خارجي مُخصص من Google Gemini، مع معالجة البيانات الحساسة محليًا لضمان الخصوصية. النمو الهائل في تفاعل المستخدمين – من 21.3 مليون تفاعل في 2023 إلى 245.5 مليون في 2024 – يُظهر حجم التحدي المتعلق بتكاليف الاستدلال. ولهذا، تركز الشركات المالية على تقليل هذه التكاليف عبر حلول مبتكرة، مثل أنظمة تجميع الحوسبة في مستوى الرف (rack-scale)، مثل نظام GB300 NVL72 من نيفيديا، الذي يضم 72 وحدة معالجة رسومية Blackwell، ويُقدّم قوة حوسبة تصل إلى 1.1 بيتافلوب في المهام ذات الكثافة العالية. لكن الحد الأقصى للقدرة الحسابية لا يكفي وحده. أصبح التخزين عنصرًا حاسمًا، لا يُعتبر "مُعَلّقًا" كما كان في الماضي. فأنظمة التخزين الحديثة، مثل منصات Vast Data وHammerspace، تُستخدم لتخزين "نافذة السياق" (context window) و"مفاتيح القيمة" (key-value caches) في ذاكرة دائمة (persistent memory) أو في شبكة تخزين موزعة، مما يقلل الحاجة لإعادة حساب النتائج عند كل طلب. هذا التحول يُظهر أن الاستدلال بالذكاء الاصطناعي لم يعد مجرد تشغيل نموذج، بل عملية معقدة تتطلب تكاملًا بين الحوسبة، الذاكرة، والتخزين، مع تفكير استراتيجي في التكلفة، السرعة، والأمان. وفي الوقت الذي تُحافظ فيه الشركات المالية على سرية تفاصيل تطبيقاتها، فإنها تُقدّم نموذجًا يُحتذى به لجميع القطاعات: الاستدلال ليس مجرد خطوة تالية للتدريب، بل هو محور الاستفادة الحقيقية من الذكاء الاصطناعي – وتحديًا يتطلب حلولًا متكاملة وذكية.

منذ 7 أيام

في قطاع الخدمات المالية، أصبحت عمليات استنتاج الذكاء الاصطناعي التوليدي (GenAI) أكثر تعقيدًا من تدريب النماذج، رغم أن التدريب كان في الماضي التحدي الأكبر. مع تطور النماذج الكبيرة، أصبحت الحاجة إلى تشغيلها بسرعة وفعالية في بيئات متنوعة — من الأجهزة المحمولة إلى مراكز البيانات — أكثر إلحاحًا. تختلف متطلبات الاستنتاج حسب التطبيق: فبعضها يتطلب معالجة فورية على الأجهزة الحافة (مثل فروع البنوك)، بينما يحتاج البعض الآخر إلى حسابات ضخمة في البيانات المركزية، مما يخلق تحديات في التأخير الزمني. الشركات المالية مثل جيه بي مورغان تشيز ووولز فارغو تُجري تجارب واسعة في مجالات متعددة: تحليل المخاطر، تقييم التأمين، اكتشاف الاحتيال، معالجة الوثائق، والذكاء الاصطناعي التفاعلي للعملاء. مثال على ذلك هو "IndexGPT" من جيه بي مورغان، الذي يستخدم نموذج GPT-4 لاستخراج كلمات مفتاحية لبناء مؤشرات استثمارية موضوعية، وتم إطلاقه كأول أداة موجهة للعملاء تعتمد على نموذج لغوي كبير. أما "إريكا" من بنك أميركا، فتعمل منذ 2018 بأساليب تقليدية، وتُعالج أكثر من 2.6 مليار تفاعل، لكنها لا تعتمد على إنشاء نصوص توليدية. أما "فارغو" من وولز فارغو، فيستخدم نماذج لغوية صغيرة محليًا لمعالجة الصوت، ثم يوجه الطلبات إلى نماذج سحابية مُعدّة خصيصًا، مثل Google Gemini Flash، مع دعم متعدد من مزودي النماذج مثل OpenAI وAnthropic وMeta. نمو التفاعل مع هذه الأدوات سجل نموًا هائلاً: من 21.3 مليون تفاعل في 2023 إلى 245.5 مليون في 2024، ما يعكس ضغطًا هائلًا على قدرات الاستنتاج. لمواجهة هذا التحدي، تسعى الشركات إلى تقليل تكلفة الاستنتاج من خلال أنظمة مُصممة خصيصًا، مثل مراكز التوسع الرفيع (rack-scale) من نيفيدا، مثل GB300 NVL72 وVR200 NVL144، التي تجمع مئات المعالجات الرسومية (GPU) في نظام موحد، وتوفر قدرات هائلة في الحسابات الدقيقة (FP4 وFP8). هذه الأنظمة مصممة خصيصًا لمعالجة النماذج التي تستخدم "الاستدلال المتسلسل" (chain of thought)، التي تتطلب معالجة متعددة النماذج المتزامنة. لكن التحدي لا يقتصر على الحوسبة: التخزين أصبح عنصرًا حاسمًا. فبفضل أنظمة التخزين المتطورة مثل Vast Data وHammerspace، أصبح من الممكن تخزين مسارات الاستدلال (context windows) في ذاكرة دائمة أو مخازن موزعة، مما يقلل الحاجة لإعادة الحسابات المتكررة ويقلل الضغط على ذاكرة GPU. هذه الأنظمة تستخدم تقنيات مثل NFS عبر RDMA ونظام ملفات عالمي لتنظيم البيانات بشكل فعّال بين العقد. في النهاية، تُظهر الشركات المالية أن الذكاء الاصطناعي لم يعد مجرد أداة تجريبية، بل عنصرًا أساسيًا في العمليات اليومية. ومع تزايد الاعتماد على الاستنتاج، تبرز الحاجة إلى حلول متكاملة تجمع بين الحوسبة المتقدمة، والتخزين الذكي، والبنية التحتية المرنة. والرقم المهم: لا تكفي الأجهزة القوية، بل يجب أن تكون البنية التحتية مصممة من الصفر لتلبية متطلبات الاستنتاج الحديث.

Related Links