مراجعة النشاط (الجزء الثاني) | تحليل اتجاهات أنظمة التعلم الآلي، ملخص لاقتباسات من الخبراء

المؤلف: سانيانغ، لي باوزهو، لي ويدونغ، يودي، شيشي
المحرر: لي باوزو
في عصر النماذج الكبيرة، تخضع أنظمة التعلم الآلي لتغييرات غير مسبوقة. لقد سمح لنا التوسع السريع في حجم النموذج أن نشهد تحسنًا كبيرًا في قدرات الذكاء الاصطناعي. ومع ذلك، فإن هذا التحسن لم يجلب فرصًا جديدة في مجالات مختلفة فحسب، بل أدى أيضًا إلى سلسلة من التحديات التقنية والصعوبات العملية الجديدة.
في 16 ديسمبر، أقيم حفل نهاية العام 2023 Meet TVM · بنجاح في قاعدة تدريب رواد الأعمال العامة في شنغهاي. في هذا اللقاء،أباتشي TVM PMC وجامعة شنغهاي جياو تونغ للدكتوراه. كان فينج سي يوان هو المضيف وأجرى تبادلًا ومناقشة شاملة ومتعددة الزوايا مع أربعة ضيوف حول موضوع "أنظمة التعلم الآلي في عصر النماذج الكبيرة".
الضيوف الأربعة في هذه المائدة المستديرة هم:
* وانغ تشين هان، مؤسس ومدير تنفيذي لشركة OpenBayes Bayesian Computing
* وو تشاو، رئيس محرك الذكاء الاصطناعي للقيادة الذاتية في شركة NIO
* جين ليشينج، مهندس نظام التعلم الآلي في OctoML
* تشو هونغ يو، مهندس نظام التعلم الآلي في ByteDance

من اليسار إلى اليمين: فنغ سيوان، وانغ تشنهان، وو تشاو، جين ليشنغ، تشو هونغ يو
وقد لخصنا هذا الحديث على النحو التالي دون الإخلال بالقصد الأصلي. تعالوا واستمعوا إلى الأفكار الرائعة للضيوف.
أنظمة التعلم الآلي في عصر النماذج الكبيرة
المرحلة الأولى: خطاب المناقشة
في هذه المرحلة، أصبحت النماذج الكبيرة موضوعًا ساخنًا للغاية في جميع المجالات، سواء كانت السحابة أو الجانب النهائي أو السيارة (Tesla FSD V12). سيواجه جميع الضيوف مشاكل في تحسين النظام أثناء تدريب ونشر النماذج الكبيرة في العمل الفعلي أو المناقشات. يرجى التناوب على تقديم التحديات والحلول الرئيسية التي واجهتك.
وانغ تشينهان:بدأت الحوسبة البايزية OpenBayes في تدريب النماذج النمطية الفردية في يونيو من هذا العام. سوبر كلو وتحتل المرتبة الخامسة في قائمة الشركات الناشئة النموذجية المحلية واسعة النطاق.من منظور تكنولوجيا تدريب النماذج الكبيرة، فإن المشكلة الأساسية التي نواجهها الآن هي زمن الوصول إلى الشبكة. في الأساس، لا يمكن لأي شريحة أن تعمل بكامل طاقتها على مجموعتها الخاصة.
وفق أوبن أيه آي وفقًا لـ "توسيع نطاق Kubernetes إلى 2500 عقدة" على الموقع الرسمي، فإن الاستخدام الأقصى لوحدة معالجة الرسومات عند تدريب GPT-3 لا ينبغي أن يتجاوز 18%، ويبلغ متوسط الاستخدام حوالي 12-15%. وهذا يعني أنه إذا أنفقت 100 مليون لبناء مجموعة، فإن 12 إلى 15 مليونًا فقط من الاستثمار في هذه المجموعة سيكون مفيدًا.من منظور مالي، فإن كيفية تحقيق أقصى قدر من التوازي في البيانات، وتشغيل خطوط الأنابيب، والتوازي المتجهي هو في الواقع التحدي الأكبر في التدريب.
إن التحديات التي تواجه النشر/الاستدلال في الصين هي في الأساس مشاكل هندسية معقدة. إذا لم يكن نطاق تردد ذاكرة الفيديو جيدًا جدًا، فإن تحسين PCIE يعد في الواقع أمرًا مزعجًا للغاية. تستخدم الحوسبة البايزية OpenBayes والعديد من الشركات المصنعة السابقة واللاحقة تقنية vLLM، مما يوفر قدرًا كبيرًا من العمل الهندسي ويقلل بشكل كبير من عبء العمل المتعلق بالاستدلال.
جينليشنغ:يمكن تقسيم التحديات التي واجهتنا إلى نقطتين رئيسيتين:
1. نظرًا لأن TVM وMLC-LLM يعملان بسرعة 7B، ففي بعض الأحيان لا تتمكن البطاقة من تخزين نموذج أكبر، مثل 70B.في الربع الأخير، حاولنا استخدام التوازي الموتر لحل هذه المشكلة. لقد أصبح هذا الحل الآن مفتوح المصدر. إذا كنت مهتمًا، يمكنك تجربته.
2. هناك متطلب آخر.نحن ندعم حاليًا حجم الدفعة = 1 فقط.إنه أكثر ملاءمة للاستخدام الفردي، ولكن إذا فكرت في التقديم، فستجد أنه أدنى بكثير من vLLM، والذي نقوم أيضًا بتطويره الآن.
فينج سي يوان:وأود أيضًا أن أضيف أن الاتجاه الرئيسي في التفكير لا يزال غير واضح. على الرغم من أن Transformer هو الهندسة المعمارية السائدة المستخدمة في النماذج الكبيرة، إلا أنه بشكل عام لا تزال هناك العديد من التغييرات في الأساليب. في هذه الحالة، لا يزال السؤال هو ما إذا كان Transformer قادرًا على توحيد النماذج الكبيرة.لذلك، في السيناريوهات التي يوجد فيها عدم يقين في الطبقات العليا والسفلى، قد تكون القدرة على التخصيص والتطوير السريع أكثر أهمية من التجميع الشامل لـ TVM التقليدي.في رأيي، لا يزال هناك مجال كبير للتحسين في التفكير وتدريب النماذج الكبيرة.
المرحلة الثانية: الاستجواب المستهدف
مع تشديد الحظر الأمريكي، اتسع نطاق القيود من الحظر الأصلي على بطاقات التدريب لتشمل أيضًا بطاقات الاستدلال النموذجي الكبيرة. على المدى القصير، ما هو الحل الأكثر فعالية من حيث التكلفة للتفكير السحابي للنماذج الكبيرة؟ (بطاقات الألعاب وبطاقات الرسومات مسموح بها)، محليًا وحدة المعالجة العصبية 、كم من الوقت سيستغرق GPU لملء الفجوة في مجال الاستدلال؟
وانغ تشينهان:تختلف أحجام نماذج التدريب والاستدلال، وتختلف سيناريوهات الاستخدام وأحمال الأعمال، لذا فمن الصعب التوصل إلى إجابة موحدة.
من منظور اختيار الحافة، فإن الشريحة المحلية Rockchip 3588 هي خيار جيد. إنها تتمتع بأداء جيد وفعالية من حيث التكلفة، ومجموعة تقنيات عالمية نسبيًا، وهي رخيصة نسبيًا ويسهل الحصول عليها.بالإضافة إلى ذلك، فإن Nvidia Orin يعادل إصدارًا مخصيًا من Ampere GPU.إذا تم اتباع مواصفات ميزانية q4f 16، فلن يكون Orin تحت ضغط كبير لتشغيل نماذج 7B أو 14B أو حتى 34B من ذاكرة الفيديو إلى الاستدلال.
من أجل اختيار السحابة، كشفت NVIDIA بعد ذلك عن ثلاث شرائح: H20 وL20 وL2. وفقًا للمعلومات الرسمية من NVIDIA، فإن مستوى المنطق الفعلي للنماذج الكبيرة هو على الأرجح 70%-80% من L40. على الرغم من أن A6000 تمت إضافته لاحقًا إلى قائمة المحظورات، إلا أن المخزون كبير نسبيًا. تتمثل ميزة A6000 في أنها تحتوي على ذاكرة فيديو كبيرة تبلغ 48 جيجابايت مع NVLink. إذا قمت بتثبيت زوج منها، فيمكنك الحصول على 130% A100.
من خلال اتصالاتنا مع مصنعي الرقائق المحليين، نعلم أن الجميع يحاولون بالفعل تحسين العمود الفقري للانتباه قدر الإمكان.
المرحلة الثانية: الاستجواب المستهدف
في مجال الرقائق المحلية، كم من الوقت تعتقد أنه سيستغرق حتى تتمكن الشركة من تحقيق النجاح الحقيقي على الجانب الاستدلالي وتكون قادرة على انتزاع حصة Nvidia في السوق؟
وانغ تشينهان:أعتقد أن شركات الرقائق المحلية ستكون قادرة على الاستحواذ على أكثر من 20% من حصة Nvidia في السوق خلال 18 شهرًا.والأساس الرئيسي لهذا الحكم هو أن السياسات المواتية لبلدي والعقوبات المستمرة من الولايات المتحدة ساهمت في زيادة معدل التوطين. علاوة على ذلك، وبقدر علمي، هناك بالفعل مصنعين محليين يمكن أن يصل توافقهم مع تعليمات NVIDIA CUDA وواجهات برمجة التطبيقات إلى 92% أو أعلى. ولذلك، فأنا لا أزال واثقاً جداً من توقعاتي للدورة الممتدة لـ 18 شهراً.
المرحلة الثانية: الاستجواب المستهدف
لماذا اختارت NIO TVM؟ ما هي مميزات TVM في مجال القيادة الذاتية؟
وو تشاو:أولاً وقبل كل شيء، هذا بالتأكيد لأنني أمتلك خلفية تقنية في TVM، لذلك عندما أقوم ببناء فريق، سأعطي الأولوية لـ TVM. ثانيًا،في المشاريع الفعلية، فإن المعيار المهم للنظر في ما إذا كانت التكنولوجيا معقولة أم لا هو ما إذا كانت بنيتها قادرة على تلبية احتياجات العمل.
القيادة الذاتية هي سيناريو تطبيق معقد للغاية، ومتطلبات الهندسة المعمارية أكثر صرامة. عند اختيار المسار الفني، من الضروري النظر بشكل شامل في متطلبات المشروع ودورة المشروع.بالنسبة لأعمال القيادة الذاتية لشركة NIO، من المقرر أن يبدأ تسليم الطراز الأول ET7 في مارس 2022. في ذلك الوقت، لم يكن أمام فريقنا سوى نصف عام للتعامل مع النموذج المعقد للقيادة الذاتية، لذلك كان يتعين علينا اختيار حل شامل. في ذلك الوقت، كان العديد من المنافسين الودودين يستخدمون TensorRT. المشكلة مع TensorRT هي أن النماذج ستصبح أكثر تعقيدًا، وستصبح المتطلبات أكثر غرابة، وهو أمر غير مناسب على المدى الطويل.
المسألة الأولى التي ينبغي أخذها في الاعتبار في مجال القيادة الذاتية هي كيفية التحكم الكامل في الأداء والدقة والمقاييس الأخرى على جانب السيارة.نظرًا لأن القيادة الذاتية تحتاج إلى حل العديد من المواقف الخاصة، فإن فريق الخوارزمية يقوم في الغالب بتدريب النماذج في السحابة ثم نشرها على السيارة. في هذه العملية، إذا كنت تستخدم الصندوق الأسود TensorRT، فلن تتمكن من إتقان خوارزمية التكميم الخاصة به بالكامل، والتكميم مهم جدًا بالنسبة لنا.
بالإضافة إلى ذلك، فإن MLIR مناسب جدًا للمترجمين التقليديين، ولكنه يتطلب قدرًا كبيرًا نسبيًا من الوقت في المراحل المبكرة. وبما أننا كنا ملتزمين بحدود زمنية صارمة نسبيًا في ذلك الوقت، وكان علينا اختيار حل شامل، فقد تخلينا عن MLIR بعد التقييم.
أخيرا،بالنسبة للقيادة الذاتية، فإن استقرار النشر الشامل والاستخدام المنخفض لوحدة المعالجة المركزية أمران بالغي الأهمية.لذلك، نحتاج إلى اختيار حل يمكن التحكم فيه بالكامل ويمكنه تقليل استخدام وحدة المعالجة المركزية، وهو شيء لا يستطيع الصندوق الأسود تحقيقه.
في ملخص،كان صندوق TVM الأبيض بالكامل هو الخيار الأفضل بالنسبة لنا في ذلك الوقت.
المرحلة 3: خطاب المناقشة
في الوقت الحاضر، ترتبط النماذج الكبيرة ونماذج القيادة الذاتية ببعضها البعض. في هذه الحالة، سيكون لخوارزمية النموذج والنظام وحتى الشريحة تطور مشترك. يمكن للمعلمين مشاركة آرائهم حول هذا الموضوع.
وانغ تشينهان:أعتقد أن DSA وGPGPU من المحتمل أن يكونا مترابطين، ولا يمكن لأي منهما الاستغناء عن الآخر. في المستقبل، لن يقتصر تصميم الرقائق على شكل الاهتمام فحسب. في الآونة الأخيرة، ظهرت العديد من التقنيات والمنتجات الجديدة في المجتمع، مثل Mistral 7B MoE وMicrosoft شبكة ريت نت إن صعود التعددية الوسائطية، وما إلى ذلك، وتوحيد الهندسة المعمارية بأكملها من خلال نماذج لغوية كبيرة قد لا يكون سوى وهم قصير من شهر مارس إلى شهر أكتوبر من هذا العام. من المرجح جدًا أن يستمر مستقبل هندسة الذكاء الاصطناعي والنموذج الذي حددته NVIDIA لبعض الوقت.ولكن قد لا تتمكن NVIDIA دائمًا من الحفاظ على ريادتها في هذا الصدد. ليس هناك شك في أن Attention سوف يختصر الفجوة بين المتابعين الآخرين و NVIDIA.على سبيل المثال، AMD MI300X وغيرها من الرقائق المحلية التي ليس من المناسب ذكر أسمائها علناً.
من المزيد من الاتجاهات،سيظل تطور الهندسة المعمارية التي تركز على GPGPU اتجاهًا طويل الأمد.
وو تشاو:في تجربة المشروع الحقيقية، التغييرات الصغيرة ممكنة، لكن التغييرات الكبيرة صعبة. بعبارة أخرى، تحت فرضية تلبية احتياجات العمل بشكل أساسي، يمكن إجراء الضبط الدقيق والتكيف للأجهزة.ومع ذلك، إذا كان Transformer ضروريًا لتحقيق نتائج جيدة، ولكن بعض الأجهزة لا تدعم Transformer بشكل جيد للغاية، فمن منظور الأعمال، فلن نقوم بالنشر على هذا الجهاز. هذه هي الحالة الحالية للصناعة.
وعندما يتعلق الأمر بالتحديات، أعتقد أنه ستكون هناك بالتأكيد تحديات، بما في ذلك التحديات المذكورة أعلاه. ر أو RNN، لم يعد التعقيد التربيعي للانتباه، بل التعقيد الخطي.وهنا أيضا هناك مشكلة. وهذا وحده لا يكفي للنجاح في هذا التحدي، لأننا قد نستخدم بعض الضغط أو وسائل أخرى لتلبية متطلبات التأثيرات في سيناريوهات محدودة. في هذه الحالة، فإن البيئة وتأثيرات RWKV ليست جيدة مثل Transformer، وليس لدى المستخدمين أي سبب للتخلي عن Transformer وتبني RWKV.
لذلك في رأيي،الخوارزميات هي القوة الدافعة الأكثر أهمية.إذا كان من الممكن تحقيق تأثير الخوارزمية، فقد نفكر في استخدام شرائح نظام أخرى مع مراعاة أداء التكلفة.
جينليشنغ:فكرتي مشابهة جدًا لفكرة البروفيسور وو. لقد عملت في مجال التعلم الآلي من قبل ونشرت بعض الأوراق البحثية حول الذكاء الاصطناعي. وجدت أن الأشخاص الذين يمارسون التعلم الآلي نادرًا ما ينتبهون إلى مؤشرات زمن الوصول أو المؤشرات المتعلقة بالنظام. إنهم مهتمون أكثر بتحسين الدقة وما إذا كان بإمكانهم الوصول إلى SOTA.لذا أعتقد أنه إذا ظهر نموذج جديد يتفوق أداؤه على Transformer تمامًا، فسوف يصبح بالتأكيد نموذجًا رئيسيًا، وسوف تتكيف معه جميع شركات تصنيع الأجهزة ومجموعات البرامج. ولذلك، أعتقد أن الخوارزمية ستظل مهيمنة.
وانغ تشينهان:لقد قمنا في السابق بتقدير أن تكلفة تدريب RWKV يمكن تخفيضها إلى حوالي 1/3 عندما يكون مقياس المعلمة كبيرًا.على سبيل المثال، عند بناء نموذج التعلم الآلي واسع النطاق، يعتمد الجميع على أدوات الاتصال والتواصل. بعد التخفيض من المستوى الأسّي إلى المستوى الخطي، سوف تنخفض متطلبات الاتصال الخاصة به.
على الرغم من أن آلية الاهتمام بدأت في جذب انتباه الناس في عام 2017، إلا أننا من خلال فحص وتحليل الأوراق البحثية العالمية المتعلقة بالتعلم الآلي، وجدنا أن عدد الأوراق البحثية المنشورة في عام 2022 وحده تجاوز إجمالي السنوات السابقة.
ليس هناك شك في أن GPT-3 أو حتى ChatGPT هو هذا الإنجاز.حتى قبل ظهور ViT، لم يكن أحد يعتقد تقريبًا أن الانتباه يمكن استخدامه للمهام البصرية. نحن نعلم أن بنية النموذج تحتاج دائمًا إلى حدث لإثبات فعاليتها، إما أن يكون مقياس المعلمة ضخمًا وفعالًا، أو أن الآلية هي SOTA في نوع معين من المهام. عند النظر إلى RWKV، فإن السبب وراء عدم إظهار RWKV حتى الآن للقدرة على التفوق على Attention هو على الأرجح الفجوة الضخمة في ميزانية الاستثمار. إن إمكانات RWKV لا تزال بعيدة عن أن يتم إثباتها.
أعتقد أننا يجب أن نتوقع العمود الفقري بعد الاهتمام بناءً على العمود الفقري الحالي. في الوقت الحاضر، يبدو أن RWKV وRetNet من Microsoft لديهما هذه الإمكانية.
المرحلة 3: خطاب المناقشة
هل سيكون نشر النماذج الكبيرة في المستقبل بشكل أساسي على جانب العميل أم على السحابة؟
وو تشاو:أعتقد أن التركيز سيكون على الجانب النهائي في السنوات الثلاث إلى الخمس المقبلة. أولاً، شكل المنتج للنموذج الكبير بالتأكيد لن يعتمد على الدردشة فقط. في المستقبل، سيكون هناك بالتأكيد الكثير من النماذج الرأسية الكبيرة.على سبيل المثال، السيارات ذاتية القيادة، والهواتف المحمولة، والروبوتات الدقيقة، وما إلى ذلك، كلها أجهزة طرفية، والطلب وقوة الحوسبة لهذا النوع من الاستدلال هائلة. من غير المحتمل أن تكون هناك سحابة قادرة على دعم هذا العدد الكبير من السيناريوهات والأجهزة. وفي الوقت نفسه، بالنسبة للتطبيقات ذات حساسية زمن الوصول العالية، مثل القيادة الذاتية، يجب أيضًا مراعاة زمن الوصول من النهاية إلى السحابة.
وانغ تشينهان:قد تستغرق النماذج الكبيرة وقتًا أطول مما نعتقد ليتم نشرها في السحابة. في السابق، كان الجميع يعتقد عمومًا أن الحوسبة السحابية ستكون محور الاهتمام الرئيسي خلال العام أو العامين المقبلين، وستنتقل إلى الجانب النهائي في حوالي 5 سنوات.تقديري الشخصي هو أنه سيتم إطلاقه على أساس السحابة خلال 3-4 سنوات، وسيتم اختباره بالكامل خلال 5-8 سنوات.
خذ GPT-3.5 (20B) كمثال. تبلغ مساحته 10 جيجابايت + في Q4 FP16. بصرف النظر عن استهلاك الطاقة، فإن استخدام 10 جيجابايت أو أكثر لتخزين نموذج على الهاتف المحمول ليس شيئًا يمكن للجميع قبوله الآن.علاوة على ذلك، فإن تطوير عمليات تصنيع الرقائق يتباطأ، ولن يتقدم هندسة الرقائق بنفس السرعة التي كانت عليها في العشرين عامًا الماضية، لذا لا أعتقد أن نموذج السحابة يمكن أن يصبح لامركزيًا إلى الجانب النهائي قريبًا.
فينج سي يوان:يغلقوفيما يتعلق بالتطور المتوقع لـTransformer، فأنا أتفق مع وجهة نظر تشين هان التي تقول إنه من غير المرجح بشكل أساسي أن يتم فصله بالكامل عن السحابة في غضون خمس سنوات.ولكن إذا ظهر نموذج جديد، فمن الممكن أن يحل جزءاً من مشكلة قوة الحوسبة. إذا كنت تريد نشر نموذج كبير على هاتف محمول، فلن يكون هناك نقص في قوة الحوسبة في الواقع. خذ هاتف Android كمثال. تحتوي على وحدة مصفوفة 35T، ولكن وحدة المصفوفة هذه عبارة عن دفعة واحدة، لذا فهي عديمة الفائدة تمامًا عند التفكير في نموذج كبير. إذا كان هناك نموذج يمكنه حل مشكلة التفكير في الاختبار النهائي، فمن المرجح أن يتم حلها في غضون نصف عام بعد إصدار النموذج. أما بالنسبة لموعد إصدار هذا النموذج، فما زال من الصعب تحديده.
تختلف طريقة إنتاج النماذج، وخاصة نماذج الجانب الطرفي، تمامًا عن تلك الخاصة بالنماذج المنتشرة في السحابة. يجب أن تكون بقيادة الشركة. على سبيل المثال، سوف تقوم شركات تصنيع مثل كوالكوم وأبل بتصميم نموذج خصيصًا للنشر على الهواتف المحمولة أو الأجهزة الطرفية.إذا كنت تريد أن يكون لنموذجك تأثيره، فلا تحتاج إلى التفوق على Transformer، فقط اقترب من Transformer. وهذا أكثر ملاءمة من جانب العميل، ويجب أن يكون مرتبطًا بتصميم النموذج وتدريبه واختلافات المهام فيه.
وو تشاو:النهج السائد حاليًا هو استنباط نموذج كبير في السحابة ثم استخلاص نموذج صغير.ومن الناحية العملية، نحن أكثر اهتماما بكيفية دعم تطوير الأعمال لبعض التطبيقات الرأسية. ليست هناك حاجة لنشر نموذج كبير مثل LLaMA. في السيناريوهات الرأسية، قد يكون عدد المعلمات 1-3B.
وانغ تشينهان:لقد ناقشنا اليوم الهندسة المعمارية والعمود الفقري ولكننا لم نأخذ في الاعتبار مقياس البيانات.استناداً إلى مبادئ علم المعلومات التي ابتكرها أسلاف شانون، ففي ظل ظروف مصفوفة معينة، تكون كمية البيانات المنقولة محدودة، وستؤدي طرق الضغط الأكثر كفاءة حتماً إلى خسائر.لذلك، إذا كنت تريد أداء معينًا - بافتراض أن هذا الأداء يعتمد على GPT-3.5، الذي ذكرناه للتو 10 جيجابايت +، فحتى لو ظهر Backbone أكثر كفاءة، يتعين علينا أن نعتقد أنه لن يكون أقل من 7 جيجابايت. لدعم نماذج هذا المستوى، يمكن توسيع مساحة تخزين الجهاز، ولكن لن يتم تقليل قدرته الحاسوبية.
لقد ذكرت سابقًا أن سرعة تكرار العملية تتباطأ.من الممكن أنه بعد 5 إلى 10 سنوات أخرى، قد لا يكون الأداء الذي يمكننا استخراجه من شريحة بحجم واحد جيدًا كما كان في السنوات الثلاث الماضية. وهذه حقيقة يمكننا أن نراها الآن.
2024 تعرف على TVM · المستقبل واعد
من الربع الأول إلى الربع الرابع من عام 2023، عقدنا بنجاح أربعة اجتماعات غير متصلة بالإنترنت في شنغهاي وبكين وشنتشن. نحن سعداء جدًا بجمع المهندسين المهتمين بمترجمي الذكاء الاصطناعي في مدن مختلفة وتزويد الجميع بمنصة للتعلم والتواصل. في عام 2024، سنواصل توسيع خريطة مدينة TVM وندعو بصدق جميع الشركات والشركاء المجتمعيين للمشاركة في الإبداع المشترك بأشكال مختلفة. سواء كان الأمر يتعلق بالتوصية بالمحاضرين أو توفير الأماكن واستراحات الشاي، فنحن نرحب بهم جميعًا.
دعونا نعمل معًا لإنشاء مجتمع المترجمين للذكاء الاصطناعي الأكثر نشاطًا في الصين!

يمكن للأصدقاء الذين لم يشاهدوا خطاب الضيف الرائع النقر علىمراجعة الحدث (الجزء الأول) | اختتمت سلسلة فعاليات Meet TVM لعام 2023 بنجاحشاهد التسجيل الكامل~
اتبع حساب WeChat العام "HyperAI 超神经元"، ورد على الكلمة الرئيسية "حفل نهاية العام TVM" في الخلفية، واحصل على عرض PPT كامل للضيوف.
يمكنك أيضًا ملاحظة "حفل نهاية العام لـ TVM"، ومسح رمز الاستجابة السريعة للانضمام إلى مجموعة الحدث، والحصول على أحدث معلومات الحدث~

المنظمون والشركاء

بصفتها الجهة المنظمة لهذا الحدث، تم تأسيس مجتمع MLC.AI في يونيو 2022. بقيادة تشين تيانكي، المخترع الرئيسي لـ Apache TVM والباحث الشاب المعروف في مجال التعلم الآلي، أطلق الفريق دورة MLC عبر الإنترنت، والتي قدمت بشكل منهجي العناصر الرئيسية والمفاهيم الأساسية لتجميع التعلم الآلي.
في نوفمبر 2022، وبفضل الجهود المشتركة لمتطوعي مجتمع MLC.AI، تم إطلاق أول وثائق TVM الصينية الكاملة وتم استضافتها بنجاح على الموقع الرسمي لـ HyperAI، مما يوفر للمطورين المحليين المهتمين بتجميع التعلم الآلي الإعدادات الأساسية للوصول إلى تقنية جديدة وتعلمها - الوثائق.
دورات MLC عبر الإنترنت:https://mlc.ai/وثائق TVM الصينية:https://tvm.hyper.ai/

HyperAI هو مجتمع الذكاء الاصطناعي والحوسبة عالية الأداء الرائد في الصين، وهو مخصص لتوفير موارد عامة عالية الجودة في مجال علوم البيانات للمطورين المحليين.حتى الآن، قدمت عقد تنزيل محلية لأكثر من 1200 مجموعة بيانات عامة، ودعمت أكثر من 300 استعلام مصطلح مرتبط بالذكاء الاصطناعي والحوسبة عالية الأداء، وأدرجت الآن مئات من المصطلحات والحالات الصناعية، وأطلقت آلاف مجموعات البيانات العامة والبرامج التعليمية بما في ذلك النماذج الكبيرة، واستضاف وثائق TVM الصينية الكاملة.
قم بزيارة الموقع الرسمي:https://hyper.ai/

OpenBayes Bayesian Computing هي شركة رائدة في تقديم خدمات الحوسبة عالية الأداء في الصينمن خلال دمج أنظمة البرمجيات الكلاسيكية ونماذج التعلم الآلي على شرائح غير متجانسة من الجيل الجديد، فإنها توفر للمؤسسات الصناعية والبحث العلمي الجامعي منتجات حوسبة علوم البيانات أسرع وأسهل في الاستخدام. وقد تم اعتماد منتجاتها من قبل العشرات من السيناريوهات الصناعية الكبرى أو معاهد البحوث العلمية الرائدة.
قم بزيارة الموقع الرسمي:https://openbayes.com/

سنتيمتر الفضاء (شيامن) هومجموعة تجار الصينوتدير شركتها المتخصصة في إدارة الحديقة الابتكارية المهنية حاضنة الأعمال المهنية "CM Space" في شيامن. انطلاقًا من الساحل الجنوبي الشرقي، والاعتماد على مزايا الأعمال الرئيسية الثلاثة لمجموعة China Merchants Group وهي النقل والتطوير الشامل للمناطق الحضرية والحدائق والتمويل، فإننا نركز على تزويد الشركات الناشئة في مجال الذكاء الاصطناعي بأكثر سيناريوهات التطبيق المطلوبة بشكل عاجل، والتحقق من النماذج، والعملاء في مرحلة البذور ودعم الموارد الأخرى في المراحل المبكرة من التطوير، والمساعدة في الحضانة الفعالة لشركات الذكاء الاصطناعي.

أرقىقاعدة هايون(قاعدة ابتكار الحوسبة السحابية في شنغهاي، قاعدة ابتكار البيانات الضخمة في شنغهاي) هي حاضنة مهنية على المستوى الوطني بدأت في وقت مبكر في الصين، مما يعزز تطوير صناعة الحوسبة السحابية من 0 إلى 1. مع نموذج الصندوق + القاعدة + المنصة، ومع صناعة الاقتصاد الرقمي باعتبارها جوهرها، فإنها تركز على القطاعات الفرعية مثل الحوسبة السحابية، والحوسبة السحابية الأصلية، والبيانات الضخمة والذكاء الاصطناعي، والرعاية الصحية الرقمية، وقد جمعت واحتضنت ما يقرب من ألف شركة متميزة في الداخل والخارج. من خلال ربط الأنظمة البيئية الأربعة للتكنولوجيا والمستخدمين ورأس المال والخدمات، نواصل عقد "مختبر ابتكار السيناريو" و"معسكر إعداد قائمة الاقتصاد الرقمي" لبناء اقتصاد رقمي.مسرع الصناعة.

Homevalley - منصة خدمات عابرة للحدود شاملة للمؤسسات العالمية، ملتزمة ببناء منصة خدمات مؤسسية موجهة نحو السوق مع قواعد حضانة ريادة الأعمال، ومواهب Homevalley، وخدمات المؤسسات Homevalley، والتواصل الثقافي Homevalley كمحتوياتها الأساسية. نحن نتواصل مع مراكز الأبحاث وموارد السوق الخارجية في أمريكا الشمالية وأوروبا وآسيا وغيرها، ونقدم خدمات مثل تشغيل الحديقة الصناعية وقاعدة الحضانة، وتدريب ريادة الأعمال، وخدمات الاستشارات للشركات، والاستثمار والتمويل، وتنمية عودة المواهب في الخارج، والابتكار العالمي وأنشطة ريادة الأعمال، ومساعدة الشركات الناشئة الصينية على الذهاب إلى الخارج. تهدف مبادرة وادي الوطن إلى اكتشاف المواهب ورعايتها وتحقيقها، ومساعدة المواهب الشابة المتميزة في تحقيق أحلامها وإنشاء مكان للوطن للعائدين لبدء الأعمال ورعاية المواهب.