HyperAIHyperAI

Command Palette

Search for a command to run...

Ensemble De Données De Réglage Fin Pour La Formation De Grands Modèles MiniMind

Date

il y a un an

Taille

8.08 GB

URL de publication

github.com

MiniMind est un projet open source de modèle de langage léger et volumineux qui vise à abaisser le seuil d'utilisation des modèles de langage volumineux (LLM) et à permettre aux utilisateurs individuels de s'entraîner et de déduire rapidement sur des appareils ordinaires.

MiniMind contient plusieurs ensembles de données, tels que l'ensemble d'entraînement du tokenizer pour l'entraînement du segmenteur de mots, les données de pré-entraînement pour le pré-entraînement du modèle, les données SFT pour le réglage fin supervisé et les données DPO 1 et DPO 2 pour l'entraînement du modèle de récompense. Ces ensembles de données sont intégrés à partir de différentes sources, telles que les données SFT de Jiangshu Technology, les données distillées Qwen2.5, etc., avec un total d'environ 3 milliards de jetons, qui conviennent à la pré-formation de grands modèles de langue chinoise.

minimind_dataset.torrent
Seeding 1Téléchargement 0Terminé 120Total Downloads 239
  • minimind_dataset/
    • README.md
      1.31 KB
    • README.txt
      2.63 KB
      • data/
        • minimind_dataset.zip
          8.08 GB

Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp