HyperAIHyperAI

Command Palette

Search for a command to run...

Console

مجموعة بيانات DPO الشبيهة بالإنسان مجموعة بيانات ضبط الحوار النموذجي الكبير

مجموعة بيانات Human Like DPO هي مجموعة بيانات مصممة خصيصًا لتحسين الطلاقة المحادثة والمشاركة في نماذج اللغة الكبيرة. وهو مناسب للتنسيقات مثل تحسين التفضيل المباشر (DPO)، والذي يهدف إلى توجيه النموذج لتوليد استجابات أكثر تشابهًا بالإنسان. وتغطي مجموعة البيانات 256 موضوعًا وتحتوي على 10,884 عينة في مجالات مختلفة بما في ذلك التكنولوجيا والحياة اليومية والعلوم والتاريخ والفن.

تتكون كل عينة من 3 أجزاء: سؤال محادثة، رد فعل شبيه بالإنسان، واستجابة رسمية. تم تصميم الأسئلة المحادثة لتكون طبيعية ومثيرة للاهتمام، وتعكس محتوى المحادثات الإنسانية اليومية؛ تحاكي الاستجابات الشبيهة بالإنسان الإجابات الطبيعية الحوارية التي تنتجها التفاعلات البشرية؛ وتعكس الاستجابات الرسمية هيكل واحترافية استجابات الذكاء الاصطناعي التقليدية.

يمكن استخدام مجموعة البيانات لضبط نماذج اللغة الكبيرة لتحسين التماسك المحادثة، وتقليل الاستجابات الآلية أو غير الشخصية، وتعزيز الذكاء العاطفي في الأنظمة المحادثة. بهذه الطريقة، توفر Human-Like-DPO-Dataset دعمًا قويًا لتطوير أنظمة حوار أكثر طبيعية وشبه بشرية. نتائج الورقة ذات الصلة هيتعزيز الاستجابات الشبيهة بالإنسان في نماذج اللغة الكبيرة".

مثال لمجموعة البيانات

Human-Like-DPO-Dataset.torrent
البذر 1جارٍ التنزيل 0مكتمل 140إجمالي التنزيلات 367
  • Human-Like-DPO-Dataset/
    • README.md
      1.83 KB
    • README.txt
      3.65 KB
      • data/
        • Human-Like-DPO-Dataset.zip
          19.05 MB

بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية بالذكاء الاصطناعي
وحدات معالجة الرسوميات الجاهزة للاستخدام
أفضل تسعير

Hyper Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp