HyperAI

Ensemble De Données DPO De Type Humain Ensemble De Données De Réglage Fin De Dialogue De Grand Modèle

Date

il y a 6 mois

Taille

19.05 MB

URL de publication

huggingface.co

* Cet ensemble de données prend en charge l'utilisation en ligne.Cliquez ici pour sauter.

L'ensemble de données Human Like DPO est un ensemble de données spécialement conçu pour améliorer la fluidité conversationnelle et l'engagement des grands modèles linguistiques. Il convient aux formats tels que Direct Preference Optimization (DPO), qui vise à guider le modèle pour générer des réponses plus humaines. L'ensemble de données couvre 256 sujets et contient 10 884 échantillons dans divers domaines, notamment la technologie, la vie quotidienne, la science, l'histoire et l'art.

Chaque échantillon se compose de 3 parties : une question conversationnelle, une réaction humaine et une réponse formelle. Les questions conversationnelles sont conçues pour être naturelles et intéressantes, reflétant le contenu des conversations humaines quotidiennes ; les réponses de type humain imitent les réponses naturelles et conversationnelles produites par les interactions humaines ; et les réponses formelles reflètent la nature structurée et professionnelle des réponses traditionnelles de l’IA.

L'ensemble de données peut être utilisé pour affiner de grands modèles linguistiques afin d'améliorer la cohérence conversationnelle, de réduire les réponses robotiques ou impersonnelles et d'améliorer l'intelligence émotionnelle dans les systèmes conversationnels. De cette manière, Human-Like-DPO-Dataset fournit un support solide pour le développement de systèmes de dialogue plus naturels et plus humains. Les résultats pertinents de l'article sontAméliorer les réponses humaines dans les grands modèles linguistiques".

Exemple d'ensemble de données

Human-Like-DPO-Dataset.torrent
Partage 1Téléchargement 0Terminés 63Téléchargements totaux 201
  • Human-Like-DPO-Dataset/
    • README.md
      1.83 KB
    • README.txt
      3.65 KB
      • data/
        • Human-Like-DPO-Dataset.zip
          19.05 MB