HyperAIHyperAI

Command Palette

Search for a command to run...

Human Like DPO Dataset 大模型对话微调数据集

Date

1 年前

Size

19.05 MB

Paper URL

arxiv.org

Human Like DPO Dataset 是一个专门设计用于提升大语言模型对话流畅性和参与度的数据集。它适用于直接偏好优化 (DPO) 等格式,旨在引导模型生成更像人类的响应。该数据集涵盖了 256 个主题,包含 10,884 个样本,这些样本分布在技术、日常生活、科学、历史和艺术等多个领域。

每个样本都包含 3 个部分:对话问题、类似人类的反应和正式回应。对话问题设计得自然且有趣,反映了日常人类对话的内容;类似人类的反应则是模仿人类互动产生的自然、对话式的答案;而正式回应则体现了传统 AI 回应的结构化和专业性。

该数据集可用于微调大型语言模型,以提高对话的连贯性,减少机械或非人性化的回应,并增强对话系统中的情商。通过这种方式,Human-Like-DPO-Dataset 为开发更自然、更人性化的对话系统提供了有力支持。相关论文成果为「Enhancing Human-Like Responses in Large Language Models」。

数据集示例

Human-Like-DPO-Dataset.torrent
Seeding 1Downloading 0Completed 140Total Downloads 369
  • Human-Like-DPO-Dataset/
    • README.md
      1.83 KB
    • README.txt
      3.65 KB
      • data/
        • Human-Like-DPO-Dataset.zip
          19.05 MB

Build AI with AI

From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.

AI Co-coding
Ready-to-use GPUs
Best Pricing

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供