HyperAIHyperAI

SpikingBrain-1.0 نموذج أشواك كبير يشبه الدماغ يعتمد على التعقيد الجوهري

1. مقدمة البرنامج التعليمي

يبني

"SpikingBrain-1.0" هو نموذج نبضي شبيه بالدماغ، مُنتج محليًا، وقابل للتحكم بشكل مستقل، أُطلق في سبتمبر 2025 من قِبل معهد الأتمتة، والأكاديمية الصينية للعلوم، والمختبر الوطني الرئيسي لإدراك الدماغ والذكاء الشبيه بالدماغ، وشركة Muxi Integrated Circuit Co., Ltd.، ومؤسسات أخرى. مستوحىً من آلية الدماغ، يدمج SpikingBrain آلية انتباه هجينة فعالة، ووحدة MoE، وترميز نبضي في بنيته، ويدعمه خط أنابيب تحويل عالمي متوافق مع بيئة نماذج المصدر المفتوح. يُمكّن هذا من التدريب المسبق المستمر بأقل من 2% من البيانات، مع تحقيق أداء يُضاهي نماذج المصدر المفتوح السائدة. حقق SpikingBrain تسارعًا يزيد عن 100 مرة في TTFT لتسلسلات 4M-token، بينما وفّر ترميز النبضات تناثرًا يزيد عن 69% على المستوى الجزئي. تُوفر هذه التطورات، إلى جانب تناثر MoE على المستوى الكلي، إرشادات قيّمة لتصميم رقائق الشكل العصبي من الجيل التالي. نتائج الورقة البحثية ذات الصلة هي:تقرير فني من SpikingBrain: نماذج كبيرة مستوحاة من Spiking Brain".

يستخدم هذا البرنامج التعليمي وحدة معالجة رسومية واحدة من طراز A6000 كمورد حوسبة. النموذج المستخدم في هذا البرنامج التعليمي هو SpikingBrain's V1-7B-sft-s3-reasoning.

2. عرض التأثير

3. خطوات التشغيل

1. ابدأ تشغيل الحاوية

2. خطوات الاستخدام

إذا لم يتم عرض "النموذج"، فهذا يعني أنه يتم تهيئة النموذج. نظرًا لأن النموذج كبير الحجم، يرجى الانتظار لمدة 2-3 دقائق وتحديث الصفحة.

4. المناقشة

🖌️ إذا رأيت مشروعًا جيدًا، يُرجى ترك تعليق في الخلفية للتوصية به! بالإضافة إلى ذلك، أنشأنا أيضًا مجموعة لتبادل الدروس التعليمية. نرحب بالأصدقاء لمسح رمز الاستجابة السريعة وإضافة [دروس AI4S] للانضمام إلى المجموعة لمناقشة مختلف المشاكل التقنية ومشاركة نتائج التطبيق.↓

معلومات الاستشهاد

شكرًا لمستخدم Github سوبر يانغ  نشر هذا البرنامج التعليمي. معلومات الاستشهاد لهذا المشروع هي كما يلي:

@article{pan2025spikingbrain,
  title={SpikingBrain Technical Report: Spiking Brain-inspired Large Models},
  author={Pan, Yuqi and Feng, Yupeng and Zhuang, Jinghao and Ding, Siyu and Liu, Zehao and Sun, Bohan and Chou, Yuhong and Xu, Han and Qiu, Xuerui and Deng, Anlin and others},
  journal={arXiv preprint arXiv:2509.05276},
  year={2025}
}