HyperAI超神经

Human Like DPO Dataset 大模型对话微调数据集

日期

3 个月前

大小

19.05 MB

发布地址

huggingface.co

* 该数据集支持在线使用,点击此处跳转

Human Like DPO Dataset 是一个专门设计用于提升大语言模型对话流畅性和参与度的数据集。它适用于直接偏好优化 (DPO) 等格式,旨在引导模型生成更像人类的响应。该数据集涵盖了 256 个主题,包含 10,884 个样本,这些样本分布在技术、日常生活、科学、历史和艺术等多个领域。

每个样本都包含 3 个部分:对话问题、类似人类的反应和正式回应。对话问题设计得自然且有趣,反映了日常人类对话的内容;类似人类的反应则是模仿人类互动产生的自然、对话式的答案;而正式回应则体现了传统 AI 回应的结构化和专业性。

该数据集可用于微调大型语言模型,以提高对话的连贯性,减少机械或非人性化的回应,并增强对话系统中的情商。通过这种方式,Human-Like-DPO-Dataset 为开发更自然、更人性化的对话系统提供了有力支持。相关论文成果为「Enhancing Human-Like Responses in Large Language Models」。

数据集示例

Human-Like-DPO-Dataset.torrent
做种 1正在下载 1已完成 40总下载次数 106
  • Human-Like-DPO-Dataset/
    • README.md
      1.83 KB
    • README.txt
      3.65 KB
      • data/
        • Human-Like-DPO-Dataset.zip
          19.05 MB