HyperAIHyperAI

Command Palette

Search for a command to run...

控制台

Human Like DPO Dataset 大模型对话微调数据集

Human Like DPO Dataset 是一个专门设计用于提升大语言模型对话流畅性和参与度的数据集。它适用于直接偏好优化 (DPO) 等格式,旨在引导模型生成更像人类的响应。该数据集涵盖了 256 个主题,包含 10,884 个样本,这些样本分布在技术、日常生活、科学、历史和艺术等多个领域。

每个样本都包含 3 个部分:对话问题、类似人类的反应和正式回应。对话问题设计得自然且有趣,反映了日常人类对话的内容;类似人类的反应则是模仿人类互动产生的自然、对话式的答案;而正式回应则体现了传统 AI 回应的结构化和专业性。

该数据集可用于微调大型语言模型,以提高对话的连贯性,减少机械或非人性化的回应,并增强对话系统中的情商。通过这种方式,Human-Like-DPO-Dataset 为开发更自然、更人性化的对话系统提供了有力支持。相关论文成果为「Enhancing Human-Like Responses in Large Language Models」。

数据集示例

Human-Like-DPO-Dataset.torrent
播种 1下载中 0已完成 140总下载量 367
  • Human-Like-DPO-Dataset/
    • README.md
      1.83 KB
    • README.txt
      3.65 KB
      • data/
        • Human-Like-DPO-Dataset.zip
          19.05 MB

用 AI 构建 AI

从构思到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格加速您的 AI 开发。

AI 协同编码
可直接使用的 GPU
最佳价格

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供