HyperAIHyperAI

Command Palette

Search for a command to run...

Ensemble De Données De Réglage Fin Pour La Formation De Grands Modèles MiniMind

Date

il y a 10 mois

Size

8.08 GB

Publish URL

github.com

MiniMind est un projet open source de modèle de langage léger et volumineux qui vise à abaisser le seuil d'utilisation des modèles de langage volumineux (LLM) et à permettre aux utilisateurs individuels de s'entraîner et de déduire rapidement sur des appareils ordinaires.

MiniMind contient plusieurs ensembles de données, tels que l'ensemble d'entraînement du tokenizer pour l'entraînement du segmenteur de mots, les données de pré-entraînement pour le pré-entraînement du modèle, les données SFT pour le réglage fin supervisé et les données DPO 1 et DPO 2 pour l'entraînement du modèle de récompense. Ces ensembles de données sont intégrés à partir de différentes sources, telles que les données SFT de Jiangshu Technology, les données distillées Qwen2.5, etc., avec un total d'environ 3 milliards de jetons, qui conviennent à la pré-formation de grands modèles de langue chinoise.

minimind_dataset.torrent
Seeding 1Downloading 0Completed 110Total Downloads 225
  • minimind_dataset/
    • README.md
      1.31 KB
    • README.txt
      2.63 KB
      • data/
        • minimind_dataset.zip
          8.08 GB

Build AI with AI

From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.

AI Co-coding
Ready-to-use GPUs
Best Pricing

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp