HyperAI초신경

인간과 유사한 DPO 데이터 세트 대규모 모델 대화 미세 조정 데이터 세트

날짜

4달 전

크기

19.05 MB

발행 주소

huggingface.co

* 이 데이터 세트는 온라인 사용을 지원합니다.여기를 클릭하여 이동하세요.

Human Like DPO 데이터 세트는 대규모 언어 모델의 대화 유창성과 참여도를 개선하기 위해 특별히 설계된 데이터 세트입니다. 이는 모델이 더욱 인간적인 응답을 생성하도록 안내하는 것을 목표로 하는 직접 선호 최적화(DPO)와 같은 형식에 적합합니다. 이 데이터 세트는 256개 주제를 다루며 기술, 일상생활, 과학, 역사, 예술 등 다양한 분야에서 10,884개의 샘플을 포함하고 있습니다.

각 샘플은 대화형 질문, 인간적인 반응, 공식적인 응답의 3가지 부분으로 구성되어 있습니다. 대화형 질문은 자연스럽고 흥미로운 방식으로 설계되었으며, 일상적인 인간 대화의 내용을 반영합니다. 인간과 유사한 반응은 인간의 상호작용을 통해 생성되는 자연스럽고 대화적인 답변을 모방합니다. 공식적인 대응은 기존 AI 대응의 구조와 전문성을 반영합니다.

이 데이터 세트는 대화의 일관성을 개선하고, 로봇적이거나 비인칭적인 반응을 줄이고, 대화 시스템에서 감성 지능을 강화하기 위해 대규모 언어 모델을 미세 조정하는 데 사용될 수 있습니다. 이런 식으로 Human-Like-DPO-Dataset은 보다 자연스럽고 인간과 유사한 대화 시스템을 개발하는 데 강력한 지원을 제공합니다. 관련 논문 결과는 다음과 같습니다.대규모 언어 모델에서 인간과 유사한 응답 향상".

데이터 세트 예제

Human-Like-DPO-Dataset.torrent
시딩 2다운로드 중 1완료됨 47총 다운로드 횟수 124
  • Human-Like-DPO-Dataset/
    • README.md
      1.83 KB
    • README.txt
      3.65 KB
      • data/
        • Human-Like-DPO-Dataset.zip
          19.05 MB