HyperAI超神経

Human Like DPO データセット 大規模モデル対話微調整データセット

※本データセットはオンライン利用に対応しておりますが、ここをクリックしてジャンプしてください

Human Like DPO データセットは、大規模な言語モデルにおける会話の流暢さとエンゲージメントを向上させるために特別に設計されたデータセットです。これは、より人間に近い応答を生成するようにモデルをガイドすることを目的とした Direct Preference Optimization (DPO) などの形式で機能します。このデータセットは 256 のトピックをカバーしており、テクノロジー、日常生活、科学、歴史、芸術などの複数の分野に分散された 10,884 個のサンプルが含まれています。

各サンプルには、会話的な質問、人間らしい応答、形式的な応答の 3 つの部分が含まれています。会話の質問は、人間の日常的な会話の内容を反映し、自然で興味深いものになるように設計されています。人間のような応答は、人間のやりとりを模倣した自然な会話的な応答であり、形式的な応答は、従来の AI 応答の構造とプロフェッショナリズムを反映しています。

このデータセットを使用すると、大規模な言語モデルを微調整して、会話の一貫性を向上させ、ロボット的または非個人的な反応を減らし、会話システムの心の知能を強化することができます。このように、Human-Like-DPO-Dataset は、より自然で人間らしい対話システムの開発を強力にサポートします。関連する論文結果は「大規模言語モデルにおける人間のような応答の強化”。

データセットの例

Human-Like-DPO-Dataset.torrent
シーディング 1ダウンロード中 1ダウンロード完了 47総ダウンロード数 124
  • Human-Like-DPO-Dataset/
    • README.md
      1.83 KB
    • README.txt
      3.65 KB
      • data/
        • Human-Like-DPO-Dataset.zip
          19.05 MB