الموعد النهائي لتقديم طلبات المشاركة في AAAI'25 هو اليوم! أعضاء SD الأساسيون يفتحون المصدر لنموذج بياني قائم على النص أكثر قوة من Midjourney، وهو متاح الآن للبدء بنقرة واحدة

لم تعد رحلة Midjourney تحظى بشعبية كبيرة بعد الآن! بعد الإصدار مفتوح المصدر لـ Stable Diffusion 3 في يونيو، قاد روبن رومباتش، أحد الأعضاء الأساسيين السابقين في Stability AI، فريقًا جديدًا لإطلاق عائلة نموذج توليد الصور FLUX.1 في وقت سابق من هذا الشهر. يزعم المسؤولون أن FLUX.1 يتفوق على النماذج الرئيسية لـ Midjourney v6.0 و DALL·E 3 والخرائط الثقافية الأخرى في مؤشرات رئيسية متعددة، كما أنه مفتوح المصدر أيضًا. يبدو الأمر قويًا جدًا، هل أنت أيضًا حريص على تجربته؟
أطلق الموقع الرسمي لـ hyper.ai الآن "FLUX.1-schnell Vincent Figure Demo" في قسم البرنامج التعليمي.فقط قم باستنساخه بنقرة واحدة وابدأ اللعب. قم بالتمرير لأسفل المقالة للحصول على الرابط~
من 12 أغسطس إلى 16 أغسطس، تحديثات الموقع الرسمي لـhyper.ai:
* مجموعة مختارة من الدروس التعليمية عالية الجودة: 3
* مجموعات البيانات العامة عالية الجودة: 10
* اختيار المقالات المجتمعية: 4 مقالات
* إدخالات الموسوعة الشعبية: 5
* أفضل المؤتمرات مع الموعد النهائي في أغسطس: 2
قم بزيارة الموقع الرسمي:هايبر.اي
دروس تعليمية عامة مختارة
1. عرض توضيحي لشخصية FLUX.1-schnell Vincent
FLUX.1 هو نموذج كبير يحتوي على 12 مليار معلمة يمكنها إنشاء صور من أوصاف نصية، وتحقيق نتائج متطورة من حيث التتبع الفوري والجودة المرئية وتفاصيل الصورة وتنوع الإخراج. يستخدم هذا البرنامج التعليمي نموذج إصدار FLUX.1 [سريع]. تم نشر النموذج والبيئة. بإمكانك استخدام النموذج الكبير مباشرةً لتوليد الاستدلال وفقًا لإرشادات البرنامج التعليمي.
الاستخدام المباشر:https://go.hyper.ai/peksE
قام مؤلف ControlNet Lvmin Zhang بتطوير مشروع جديد يسمى Paints-Undo، والذي يمكنه تفكيك عملية الرسم لأي صورة بسرعة ومساعدة المبتدئين على فهم تقنيات الرسم لأنماط مختلفة من الصور بشكل أفضل. أطلقت شركة HyperAI الآن "عرضًا توضيحيًا لـ Paints-Undo لعملية الرسم بأكملها والتي تم إنشاؤها من صورة واحدة". لقد بنى هذا البرنامج التعليمي بيئة مناسبة للجميع. لا تحتاج إلى إدخال أي أوامر، يمكنك البدء في الاستنساخ بنقرة واحدة!
الاستخدام المباشر:https://go.hyper.ai/EwBE0
3. نشر نموذج Puke الكيميائي الكبير ChemLLM-7B-chat Demo بنقرة واحدة
ChemLLM-7B-Chat هو أول نموذج لغوي مفتوح المصدر واسع النطاق للكيمياء والعلوم الجزيئية "Puke Chemistry (ChemLLM)" مفتوح المصدر بواسطة مختبر شنغهاي للذكاء الاصطناعي (مختبر شنغهاي للذكاء الاصطناعي) في عام 2024. هذا البرنامج التعليمي هو عرض توضيحي لنشر النموذج بنقرة واحدة. كل ما عليك فعله هو استنساخ الحاوية وبدء تشغيلها ونسخ عنوان API الناتج مباشرةً لتجربة استنتاج النموذج.
الاستخدام المباشر:https://go.hyper.ai/X8V9z
مجموعات البيانات العامة المختارة
1. مجموعة بيانات المهام الكيميائية ChemData
تم توفير هذه المجموعة من البيانات مفتوحة المصدر بواسطة مختبر الذكاء الاصطناعي في شنغهاي جنبًا إلى جنب مع أول نموذج علمي كبير له، وهو نموذج Pu Ke Chemical Big Model (ChemLLM). يشتمل بشكل أساسي على 9 مهام كيميائية أساسية، و730 ألف سؤال وجواب عالي الجودة، ونماذج لغوية كبيرة، ومجموعات بيانات دقيقة لضبط تعليمات القدرة الكيميائية.
الاستخدام المباشر:https://go.hyper.ai/94tF1
2. مجموعة بيانات معيار تقييم القدرات الكيميائية ChemBench4K
تتكون مجموعة البيانات من 9 مهام حول الجزيئات والتفاعلات الكيميائية، بما في ذلك 4100 سؤال اختيار من متعدد. يضع هذا المعيار الأساس لقياس المستوى الكيميائي للنماذج اللغوية الكبيرة بشكل موضوعي.
الاستخدام المباشر:https://go.hyper.ai/itsdU
3. مجموعة بيانات معيار استرجاع النصوص BRIGHT
تجمع مجموعة البيانات 1,385 استعلامًا حقيقيًا من مجالات مختلفة (StackExchange، وLeetCode، ومسابقات الرياضيات)، والتي تأتي جميعها من بيانات اصطناعية حقيقية. تم تصميم مجموعة بيانات BRIGHT خصيصًا لاختبار ما إذا كان نظام الاسترجاع قادرًا على تحديد مثل هذه العلاقات المنطقية العميقة والعثور على المقالات أو التقارير الأكاديمية ذات الصلة.
الاستخدام المباشر:https://go.hyper.ai/s735d
4. مجموعة بيانات الفهم العلمي متعددة الوسائط ArXiv
يتكون ArXiv المتعدد الوسائط من ArXivCap وArXivQA لتعزيز الفهم العلمي في LVLM. ArXivCap هي مجموعة بيانات تسميات توضيحية للرسوم البيانية تحتوي على 6.4 مليون صورة و3.9 مليون تسمية توضيحية. ArXivQA هي مجموعة بيانات للإجابة على الأسئلة تم إنشاؤها بواسطة GPT-4V استنادًا إلى الرسوم البيانية العلمية عبر المطالبات. وقد تم قبول النتائج ذات الصلة من قبل ACL 2024.
الاستخدام المباشر:https://go.hyper.ai/n64Jh
5. مجموعة بيانات الإجابة على أسئلة الأوراق العلمية متعددة الوسائط SPIQA
هذه هي أول مجموعة بيانات ضمان الجودة واسعة النطاق مصممة خصيصًا لتفسير الأشكال والجداول المعقدة في المقالات البحثية العلمية في مختلف مجالات علوم الكمبيوتر. يحتوي على 270 ألف سؤال مقسمة إلى أجزاء التدريب والتحقق و3 أجزاء تقييم مختلفة. ومن خلال إجراء تجارب موسعة على 12 نموذجًا أساسيًا معروفًا، قام الفريق بتقييم قدرة الأنظمة المتعددة الوسائط الحالية على فهم الجوانب الدقيقة للمقالات البحثية.
الاستخدام المباشر:https://go.hyper.ai/qd7I2
6. مجموعة بيانات تقييم معياري متعدد الوسائط MMEvaIPro
يعمل MMEvalPro على تحسين طرق التقييم الحالية من خلال إضافة سؤالين "رئيسيين" (سؤال إدراكي واحد وسؤال معرفي واحد)، مما يشكل "ثلاثية أسئلة" تختبر جوانب مختلفة من الفهم المتعدد الوسائط للنموذج. يحتوي المعيار النهائي على 2138 ثلاثية سؤال، بإجمالي 6414 سؤالاً مختلفًا تغطي مواضيع ومستويات صعوبة مختلفة.
الاستخدام المباشر:https://go.hyper.ai/Hw8JA
7. مجموعة بيانات PubMedVision الطبية واسعة النطاق لتقييم جودة التعليم (VQA)
PubMedVision عبارة عن مجموعة بيانات طبية متعددة الوسائط عالية الجودة وواسعة النطاق. استخدم فريق البحث أساليب معالجة البيانات المتطورة لفحص الصور الطبية والأوصاف المعلوماتية للصور من الأوراق المنشورة في المجلات الطبية الدولية PubMed، مما أدى إلى تصفية عدد كبير من الصور غير ذات الصلة بالطب والمحتوى غير ذي الصلة بالسياق بشكل فعال.
الاستخدام المباشر:https://go.hyper.ai/Uy8XM
8. مجموعة بيانات مرجعية متعددة الوسائط ذاتية التوجيه متعددة الوسائط
تحتوي مجموعة البيانات على إجمالي 11,193 صورة مجردة مع أسئلة ذات صلة، تغطي 8 فئات رئيسية بما في ذلك لوحات المعلومات وخرائط الطرق والمخططات والجداول ومخططات التدفق ومخططات العلاقات والألغاز المرئية وخطط الطوابق ثنائية الأبعاد، بالإضافة إلى 62,476 بيانات إضافية لضبط النموذج.
الاستخدام المباشر:https://go.hyper.ai/FwGuz
9. Assetto Corsa Gym - معيار محاكاة سباقات السيارات ذاتية القيادة على نطاق واسع
تجمع مجموعة البيانات 64 مليون خطوة من بيانات قيادة السباق، منها 2.3 مليون خطوة من سائقين بشريين ذوي مهارات قيادة مختلفة والباقي من سياسات Soft Actor-Critic (SAC).
الاستخدام المباشر:https://go.hyper.ai/6tfuM
10. MiraData: مجموعة بيانات فيديو واسعة النطاق ذات مدة طويلة وتعليقات توضيحية منظمة
تركز MiraData على مقاطع فيديو غير مقطوعة تتراوح مدتها بين دقيقة إلى دقيقتين (متوسط الطول 72.1 ثانية)، ويأتي كل فيديو مصحوبًا بوصف منظم من زوايا مختلفة، بمتوسط طول وصف يبلغ 318 كلمة، مما يضمن عرضًا شاملاً لمحتوى الفيديو. توفر مجموعة البيانات هذه موارد قيمة وتحديات جديدة للباحثين في مجالات إنشاء مقاطع الفيديو الطويلة وفهم محتوى الفيديو وتوليده.
الاستخدام المباشر:https://go.hyper.ai/2LmEJ
لمزيد من مجموعات البيانات العامة، يرجى زيارة:
مقالات المجتمع
في يوم 14 أغسطس، تم الإعلان عن جوائز ACL 2024 واحدة تلو الأخرى. فاز 7 نتائج بجائزة أفضل ورقة بحثية. فاز كتاب "فك شفرة لغة عظام أوراكل باستخدام نماذج الانتشار" الذي نشرته بشكل مشترك جامعة هواتشونغ للعلوم والتكنولوجيا، وجامعة أديلايد، وجامعة أنيانغ العادية، وجامعة جنوب الصين للتكنولوجيا، بالجائزة. لقد قدمت شبكة HyperAI Super Neural Network للجميع تفسيرًا مفصلاً.
شاهد التقرير الكامل:https://go.hyper.ai/t5Zon
في الآونة الأخيرة، استخدمت براتيوشا شارما من معهد ماساتشوستس للتكنولوجيا وباحثون من مركز CETI التعلم الآلي لتحليل تسجيلات حيتان العنبر، مؤكدين أن الأصوات التي تصدرها حيتان العنبر منظمة ومتشكلة من خلال مجموعة من الميزات المختلفة. كما قاموا بعزل أبجدية نطق حوت العنبر، والتي تشبه إلى حد كبير نظام التعبير اللغوي البشري. هذه المقالة عبارة عن تفسير مفصل ومشاركة لورقة البحث.
شاهد التقرير الكامل:https://go.hyper.ai/nA23S
في الآونة الأخيرة، تمكن فريق البحث المكون من الأكاديمي داي تشيونغهاي والأستاذ فانغ لو من جامعة تسينغهوا من الاستيلاء على تناسق انتشار الفوتون، ومساواة الانتشار الأمامي والخلفي في تدريب الشبكة العصبية بالانتشار الأمامي للضوء، وتطوير طريقة للتعلم الكامل في الوضع الأمامي. هذه المقالة عبارة عن تفسير مفصل ومشاركة لورقة البحث.
شاهد التقرير الكامل:https://go.hyper.ai/lxNhj
من أجل الجمع بين خوارزمية الشبكة العصبية وخوارزمية DFT بشكل أكثر عضوية، اقترحت مجموعة البحث المكونة من Xu Yong و Duan Wenhui من جامعة Tsinghua إطار نظرية كثافة الشبكة العصبية الوظيفية (DFT للشبكة العصبية). يوحد هذا الإطار بين تقليل وظائف الخسارة في الشبكات العصبية وتحسين وظائف الطاقة في نظرية الكثافة الوظيفية. وبالمقارنة مع طرق التعلم الإشرافي التقليدية، فإنها تتمتع بدقة وكفاءة أعلى، وتفتح مسارًا جديدًا لتطوير طرق DFT للتعلم العميق. هذه المقالة عبارة عن تفسير مفصل ومشاركة لورقة البحث.
شاهد التقرير الكامل:https://go.hyper.ai/oE7nH
مقالات موسوعية شعبية
1. اختبار t المقترن
2. دمج الفرز المتبادل RRF
3. جبهة باريتو
4. فهم اللغة متعدد المهام على نطاق واسع (MMLU)
5. زيادة البيانات
فيما يلي مئات المصطلحات المتعلقة بالذكاء الاصطناعي التي تم تجميعها لمساعدتك على فهم "الذكاء الاصطناعي" هنا:

تتبع شامل لأفضل المؤتمرات الأكاديمية في مجال الذكاء الاصطناعي:https://go.hyper.ai/event
إن ما ورد أعلاه هو كل محتوى اختيار المحرر لهذا الأسبوع. إذا كان لديك موارد تريد تضمينها على الموقع الرسمي لـ hyper.ai، فنحن نرحب بك أيضًا لترك رسالة أو إرسال مقال لإخبارنا بذلك!
نراكم في الاسبوع القادم!
حول HyperAI
HyperAI (hyper.ai) هي شركة رائدة في مجال الذكاء الاصطناعي والحوسبة عالية الأداء في الصين.نحن ملتزمون بأن نصبح البنية التحتية في مجال علوم البيانات في الصين وتوفير موارد عامة غنية وعالية الجودة للمطورين المحليين. حتى الآن، لدينا:
* توفير عقد تنزيل محلية سريعة لأكثر من 1300 مجموعة بيانات عامة
* يتضمن أكثر من 400 برنامج تعليمي كلاسيكي وشائع عبر الإنترنت
* تفسير أكثر من 100 حالة بحثية من AI4Science
* دعم البحث عن أكثر من 500 مصطلح ذي صلة
* استضافة أول وثائق كاملة حول Apache TVM باللغة الصينية في الصين
قم بزيارة الموقع الرسمي لبدء رحلة التعلم الخاصة بك: