دروس تعليمية عبر الإنترنت | لا يوجد حد أدنى لنشر Llama 3، حيث تشغل النسخة 70B مساحة تخزين تبلغ 1.07 جيجابايت فقط، ويمكن للمستخدمين الجدد تجربة النسخة 8B مجانًا

في 18 أبريل، أعلنت شركة Meta عن إطلاق Llama 3 مفتوح المصدر. وبمجرد إصداره، أحدث هذا النموذج الذي يُسمى "أفضل نموذج كبير مفتوح المصدر حتى الآن" ضجة كبيرة في دوائر التكنولوجيا على الفور!

وتزامن تاريخ الإصدار مع عيد ميلاد أندرو نج، أستاذ في جامعة ستانفورد وخبير بارز في مجال الذكاء الاصطناعي. وباعتباره من المؤيدين للذكاء الاصطناعي مفتوح المصدر، فقد نشر بحماس:هذه هي أفضل هدية عيد ميلاد تلقيتها على الإطلاق، شكرًا لك ميتا.

كما أوصى يان ليكون، كبير العلماء في شركة ميتا والفائز بجائزة تورينج، بأحدث نموذج مفتوح المصدر على حسابه:إنه يدعم نصوصًا بطول 8 كيلو بايت، ويستخدم أكثر من 15 تريليون رمز للتدريب على مجموعة وحدة معالجة رسومية بحجم 24 كيلو بايت، ويؤدي أداءً جيدًا في معايير التقييم المتعددة.في بعض المهام، يكون أداء Llama 3-8B أفضل من أداء Llama 2-70B. وسيتم إصدار المزيد من الإصدارات في الأشهر المقبلة.
وفقًا لموقعها الرسمي، تستخدم Llama 3 تقنيات ضبط تعليمات متقدمة، بما في ذلك الضبط الدقيق المُشرف (SFT)، وتحسين السياسات القريبة (PPO)، وتحسين السياسات المباشرة (DPO)، وهو ما يُمثل نقلة نوعية مُقارنةً بـ Llama 2. من حيث الأمان، تتميز النسخة الجديدة من أدوات الثقة والأمان، التي تستخدم Llama Guard 2 وCode Shield وCyberSec Eval 2، بأداء أفضل في مواجهة الرفض الكاذب مقارنةً بـ Llama 2.
ومن الجدير بالذكر أنه عند إصدار Llama 3، ذكرت Meta أيضًا على مدونتها الرسمية أنها كانت تدرب إصدارًا جديدًا من النموذج بأكثر من 400 معلمة. يعتقد جيم فان، كبير العلماء في شركة NVIDIA، أنويشكل الإطلاق المستقبلي المحتمل لـ Llama 3-400B بداية إتاحة نماذج مستوى GPT-4 لمجتمع المصدر المفتوح، وهو ما سيغير الطريقة التي تقوم بها العديد من جهود البحث والشركات الناشئة الشعبية بالحوسبة.

لتقييم أداء Llama 3 في السيناريوهات الواقعية،لقد طورت شركة ميتا مجموعة بيانات جديدة عالية الجودة للتقييم البشري تغطي حالات الاستخدام في العالم الحقيقي بما في ذلك، على سبيل المثال لا الحصر: طلب الاقتراحات، والعصف الذهني، والتصنيف، والإجابة على الأسئلة المغلقة، والبرمجة، والكتابة الإبداعية، واستخراج المعلومات، ولعب الأدوار، والإجابة على الأسئلة المفتوحة، والتفكير المنطقي، وإعادة كتابة النصوص، والتلخيص.
وتظهر النتائج أن Meta Llama 70B يتمتع بميزة مقارنة بـ Claude Sonnet و Mistral Medium و GPT-3.5.

الأداء يتجاوز GPT-3.5 ويقترب من GPT-4. أعتقد أن الجميع لا يمكنهم الانتظار لتجربة Llama 3. لمساعدتك في تقليل وقت انتظار التنزيل الطويل، وتوفير موارد الحوسبة، وتقليل صعوبة نشر النموذج،أطلقت شركة HyperAI دروس "نشر Llama3-8B-Instruct باستخدام Ollama و Open WebUI" و "نشر Llama3-70B باستخدام Ollama و Open WebUI" على صفحة الدروس الخاصة بها.* توفر Ollama وOpen WebUI إدارة قوية للنموذج الخلفي ووظائف التفاعل مع الواجهة الأمامية على التوالي. من خلال الجمع بين هاتين الأداتين، يمكن إكمال نشر وإدارة النماذج الكبيرة بسهولة.
لا يشغل Llama3-70B سوى 1.07 جيجابايت من مساحة التخزين.استنساخ بنقرة واحدة للبدء!
عنوان البرنامج التعليمي HyperAI Hyperneural: *8ب: https://hyper.ai/tutorials/31129*70ب: https://hyper.ai/tutorials/31155
قام المحرر بنشر نموذج Llama 3 وفقًا للبرنامج التعليمي وساعد الجميع في تجربة التأثير الفعلي.
* لقد قمت بتوجيه Llama 3 عمدًا، لكنه لم ينخدع. لكن نفس السؤال خدع GPT-3.5! عندما رأى المحرر أن المقال يجيب على السؤال بشكل جدي، لم يستطع إلا أن يصدقه تقريبًا.


*عيد العمال قادم قريبا. أين يجب أن نذهب لقضاء العطلة؟ أي واحد يجب علينا أن نختار من بين العديد من الأماكن؟

* ويمكنه أيضًا حل المسائل الرياضية. لم يعد عليك أن تقلق بشأن تدريس أطفالك في المنزل!

*يمكن ترجمته أيضًا، مما يحل مشكلتي الكبيرة!

* قصة ما قبل النوم، خدعة أخرى تعلمتها.

تشغيل تجريبي
1. قم بتسجيل الدخول إلى hyper.ai، وفي صفحة البرامج التعليمية، حدد نشر Llama3-8B-Instruct باستخدام Ollama وOpen WebUI أو نشر Llama3 70B باستخدام Ollama وOpen WebUI.
بعد ذلك، سأستخدم البرنامج التعليمي "نشر Llama3-70B باستخدام Ollama و Open WebUI" كمثال.

2. انقر فوق "تشغيل هذا البرنامج التعليمي عبر الإنترنت". بعد الانتقال إلى الصفحة التالية، انقر فوق "استنساخ" في الزاوية اليمنى العليا لاستنساخ البرنامج التعليمي في الحاوية الخاصة بك.


3. انقر فوق "التالي: حدد معدل التجزئة" في الزاوية اليمنى السفلية.

4. بعد القفزة، حدد "NVIDIA RTX A6000 48GB"، وحدد الصورة "PyTorch"، وانقر فوق "التالي: المراجعة".يمكن للمستخدمين الجدد التسجيل باستخدام رابط الدعوة أدناه للحصول على 4 ساعات من RTX 4090 + 5 ساعات وحدة المعالجة المركزية حرمعدل التجزئةمدة!
رابط دعوة حصرية لـ HyperAI (انسخ وافتح في المتصفح للتسجيل):https://openbayes.com/console/signup?r=6bJ0ljLFsFh_Vvej
ملاحظة: إذا كنت تقوم بتشغيل البرنامج التعليمي "نشر Llama3-8B-Instruct باستخدام Ollama وOpen WebUI"، فحدد "NVIDIA GeForce RTX 4090" لتشغيله.

5. انقر فوق "متابعة التنفيذ" وانتظر حتى يتم تخصيص الموارد. عندما تتغير الحالة إلى "قيد التشغيل"، انقر فوق "فتح مساحة العمل".


5. انقر فوق "متابعة التنفيذ" وانتظر حتى يتم تخصيص الموارد. عندما تتغير الحالة إلى "قيد التشغيل"، انقر فوق "فتح مساحة العمل".
OLLAMA_MODELS=/openbayes/home/ollama-models ./ollamaserv


7. قم بإنشاء صفحة طرفية جديدة وأدخل المحتوى التالي في سطر الأوامر لبدء تشغيل Open WebUI.
bash /openbayes/input/input1/open-webui/backend/start.sh

8. انتظر لفترة من الوقت. عندما يعرض سطر الأوامر "INFO: Uvicorn running on http://0.0.0.0:8080"، انسخ عنوان API الموجود على اليمين إلى شريط عنوان المتصفح لفتح صفحة Open WebUI.يرجى ملاحظة أنه يجب على المستخدمين إكمال مصادقة الاسم الحقيقي قبل استخدام وظيفة الوصول إلى عنوان API.

عرض التأثير
1. بعد فتح واجهة Open WebUI، قم بتسجيل الدخول إلى حسابك.
الحساب: admin@example.com
كلمة المرور: adminadmin

2. حدد طراز Llama 3-70B.

3. أدخل السؤال ويمكنك استخدامه.

في الوقت الحاضر، أطلق الموقع الرسمي لـ HyperAI مئات من البرامج التعليمية المختارة المتعلقة بالتعلم الآلي، والتي تم تنظيمها في شكل Jupyter Notebook.
انقر على الرابط للبحث عن الدروس ومجموعات البيانات ذات الصلة:https://hyper.ai/tutorials
ما سبق هو كل المحتوى الذي شاركه المحرر هذه المرة. آمل أن يكون هذا المحتوى مفيدًا لك. إذا كنت تريد أن تتعلم دروس تعليمية أخرى مثيرة للاهتمام، يرجى ترك رسالة أو إرسال رسالة خاصة لنا عنوان المشروع. سيقوم المحرر بتصميم دورة تدريبية مخصصة لك وتعليمك كيفية اللعب باستخدام الذكاء الاصطناعي.
مراجع:
1.https://mp.weixin.qq.com/s/bw1-e9Nou7CeR-9iaGNLNA
2.https://mp.weixin.qq.com/s/GoxWufZhemddpvCkOwYAKg
3.https://mp.weixin.qq.com/s/tkMb2RRblCvOpxP7yBTl-w