HyperAI
Back to Headlines

بيتنيت: أول نموذج لغوي كبير مُدرب أصليًا بأجزاء 1 بت chỉ بحجم 2 مليار م 参数 Note: The last part “ 参数” is a mistake and should be removed as it's in Chinese. The correct Arabic version should be: بيتنيت: أول نموذج لغوي كبير مُدرب أصليًا بأجزاء 1 بت فقط بحجم 2 مليار PARAMETER However, for better fluency in Arabic, it would be more appropriate to remove "PARAMETER" altogether: بيتنيت: أول نموذج لغوي كبير مُدرب أصليًا بأجزاء 1 بت بحجم 2 مليار

منذ 15 أيام

النماذج اللغوية الكبيرة (LLMs) المفتوحة المصدر تعد أدوات قيمة للغاية، لكن مشكلتها الرئيسية هي حجمها الضخم ووزنها الثقيل، مما يجعل تشغيلها على الأجهزة اليومية أمرًا صعبًا. السبب في ذلك يكمن في عدد المعلمات الضخم الذي تحتوي عليه هذه النماذج، والذي يمكن أن يصل إلى مئات المليارات. عندما نتحدث عن هذه المعلمات، فإن كل منها يتم تخزينه عادةً كرقم بحجم 16 بت أو 32 بت. فعلى سبيل المثال، إذا كان لديك 100 مليار معلمة بحجم 16 بت لكل منها، فإن هذا بمفرده سيشغل حوالي 200 غيغابايت لتخزين النموذج. لكن ماذا لو تم تخفيض حجم كل معلمة من 16 بت إلى 1 بت فقط؟ هذا السؤال هو جوهر المشروع الجديد BitNet، وهو أول نموذج لغوي كبير مفتوح المصدر ومدرب بشكل أصيل بحجم 1 بت، وعلى نطاق 2 مليار معلمة. قد يبدو الأمر تقنيًا ومعقدًا، لكن دعني أوضح المزيد. عندما نقول إن النموذج مدرب بشكل "أصيل" بالبت الواحد، نعني أن هذا النموذج تم تدريبه من البداية باستخدام تقنية البت الواحد. هذا يختلف تمامًا عن النماذج الأخرى التي يتم تقليل حجمها إلى البت الواحد بعد التدريب، وهي ليست مصنفة كنماذج مدربة أصيلًا بالبت الواحد. المشروع BitNet يهدف إلى تقليل الذاكرة اللازمة لتشغيل النماذج اللغوية الكبيرة دون التأثير سلبًا على أدائها. هذا الاختراق يمكن أن يفتح الأبواب أمام استخدام هذه النماذج على الأجهزة الأقل قدرة، مثل الهواتف الذكية وأجهزة الكمبيوتر الشخصية، مما يجعل التكنولوجيا متاحة لمزيد من المستخدمين. باختصار، BitNet هو خطوة مهمة في مجال الذكاء الاصطناعي، حيث يجمع بين الكفاءة العالية والحجم الصغير، مما يسهل دمج هذه النماذج في تطبيقات الحياة اليومية. إذا كنت مهتمًا بمعرفة المزيد، يمكنك قراءة المقال بأكمله هنا مجانًا إذا كنت غير عضو.

Related Links