HyperAI

مجموعة بيانات DPO الشبيهة بالإنسان مجموعة بيانات ضبط الحوار النموذجي الكبير

التاريخ

منذ 6 أشهر

الحجم

19.05 MB

رابط النشر

huggingface.co

العلامات

* هذه المجموعة من البيانات تدعم الاستخدام عبر الإنترنت.انقر هنا للقفز.

مجموعة بيانات Human Like DPO هي مجموعة بيانات مصممة خصيصًا لتحسين الطلاقة المحادثة والمشاركة في نماذج اللغة الكبيرة. وهو مناسب للتنسيقات مثل تحسين التفضيل المباشر (DPO)، والذي يهدف إلى توجيه النموذج لتوليد استجابات أكثر تشابهًا بالإنسان. وتغطي مجموعة البيانات 256 موضوعًا وتحتوي على 10,884 عينة في مجالات مختلفة بما في ذلك التكنولوجيا والحياة اليومية والعلوم والتاريخ والفن.

تتكون كل عينة من 3 أجزاء: سؤال محادثة، رد فعل شبيه بالإنسان، واستجابة رسمية. تم تصميم الأسئلة المحادثة لتكون طبيعية ومثيرة للاهتمام، وتعكس محتوى المحادثات الإنسانية اليومية؛ تحاكي الاستجابات الشبيهة بالإنسان الإجابات الطبيعية الحوارية التي تنتجها التفاعلات البشرية؛ وتعكس الاستجابات الرسمية هيكل واحترافية استجابات الذكاء الاصطناعي التقليدية.

يمكن استخدام مجموعة البيانات لضبط نماذج اللغة الكبيرة لتحسين التماسك المحادثة، وتقليل الاستجابات الآلية أو غير الشخصية، وتعزيز الذكاء العاطفي في الأنظمة المحادثة. بهذه الطريقة، توفر Human-Like-DPO-Dataset دعمًا قويًا لتطوير أنظمة حوار أكثر طبيعية وشبه بشرية. نتائج الورقة ذات الصلة هيتعزيز الاستجابات الشبيهة بالإنسان في نماذج اللغة الكبيرة".

مثال لمجموعة البيانات

Human-Like-DPO-Dataset.torrent
البذر 1التنزيل 0مكتمل 63إجمالي التنزيلات 201
  • Human-Like-DPO-Dataset/
    • README.md
      1.83 KB
    • README.txt
      3.65 KB
      • data/
        • Human-Like-DPO-Dataset.zip
          19.05 MB