HyperAI

Une Collection De Ressources De Modèles De Très Grande Taille | 30 Ensembles De Données Et Modèles NLP De Haute Qualité, 8 Démos Pour Une Utilisation En Un Clic, Recommandés Pour La Collecte !

特色图像

Au cours des deux dernières années, la popularité des grands modèles n’a cessé de croître et ils ont commencé à être explorés dans un plus large éventail de domaines. Avec le développement rapide de l'industrie dans son ensemble, de plus en plus de grands modèles open source affluent sur le marché, favorisant davantage l'expansion des applications de niveau supérieur.

Pour les développeurs, la sélection de modèles et d’ensembles de données volumineux et de haute qualité est essentielle pour leurs recherches et développements ultérieurs ainsi que pour l’affinement des modèles. Afin de faciliter à chacun la sélection et le téléchargement de modèles et d'ensembles de données adaptés aux besoins de développement,HyperAI a compilé pour vous quelques ressources liées aux grands modèles :

* Ensembles de données publiques de haute qualité : 15

* Modèles open source de haute qualité : 15

* Sélection de tutoriels de haute qualité : 8

Pour plus de ressources sur les grands modèles, veuillez visiter le site Web officiel:hyper.ai

Sélection de l'ensemble de données

1. seq-monkey séquence singe ensemble de données open source 1.0

L'ensemble de données Sequence Monkey est un ensemble de données utilisé pour former le modèle Sequence Monkey, couvrant des domaines tels que : le corpus de textes généraux chinois, le corpus de traduction de poésie ancienne et le corpus de génération de texte.

Utilisation directe :https://hyper.ai/datasets/30139

2. Corpus d'extraction d'informations à grande échelle IEPile 

IEPile est un ensemble de données d'instructions d'extraction d'informations (IE) bilingue (chinois et anglais) à grande échelle et de haute qualité, développé par l'Université du Zhejiang, couvrant plusieurs domaines tels que la médecine et la finance.

Utilisation directe :https://hyper.ai/datasets/30064

3. Ensemble de données d'alignement de contexte long pour grand modèle LongAlign-10K 

LongAlign-10k a été proposé par l'Université Tsinghua. Il s’agit d’un ensemble de données conçu pour répondre aux défis auxquels sont confrontés les grands modèles dans les tâches d’alignement à long contexte. Il contient 10 000 données d'instructions longues d'une longueur comprise entre 8 Ko et 64 Ko.

Utilisation directe :https://hyper.ai/datasets/30247

4. Ensemble de données Dianping

L'ensemble de données contient 4,4 millions d'avis ou d'évaluations de 540 000 utilisateurs sur 240 000 restaurants. Il peut être utilisé pour des tâches telles que les systèmes de recommandation, l'analyse des tendances des sentiments/opinions/commentaires, etc.

Utilisation directe :https://hyper.ai/datasets/29993

5. Ensemble de données d'avis des utilisateurs d'Amazon

L'ensemble de données contient 7,2 millions d'avis ou d'évaluations de 1,42 million d'utilisateurs sur 520 000 produits dans plus de 1 100 catégories sur le site Web d'Amazon. Il peut être utilisé pour des tâches telles que les systèmes de recommandation et l'analyse des tendances en matière de sentiments/opinions/avis.

Utilisation directe :https://hyper.ai/datasets/30009

6. Ensemble de données de compréhension de lecture en chinois du Quotidien du Peuple PD&CFT 

Cet ensemble de données est le premier ensemble de données de compréhension de lecture en chinois, qui comprend le Quotidien du Peuple et le Conte de fées pour enfants (PD&CFT).

Utilisation directe :https://hyper.ai/datasets/29260

7. Ensemble de données de classification de textes chinois Toutiao

Cet ensemble de données est un ensemble de données de classification des actualités chinoises de Toutiao (texte court). La source de données est le client Toutiao. Il contient 15 catégories et 382 688 textes.

Utilisation directe :https://hyper.ai/datasets/29517

8. Ensemble de données de référence FewJoint 

Cet ensemble de données provient de la plateforme ouverte iFlytek AIUI. Il contient un corpus d'utilisateurs réels et un corpus construit par des experts (dans un rapport d'environ 3:7), avec un total de 59 domaines réels. Il s’agit de l’un des ensembles de données de conversation avec le plus de domaines actuellement.

Utilisation directe :https://hyper.ai/datasets/29239

9. PAWS-X : un ensemble de données contradictoires multilingues pour l'identification des paraphrases 

L'ensemble de données contient 23 659 paires d'évaluation PAWS traduites par l'homme et 296 406 paires d'entraînement traduites par machine dans 6 langues différentes : français, espagnol, allemand, chinois, japonais et coréen. Toutes les paires de traductions sont dérivées d'exemples dans PAWS-Wiki.

Utilisation directe :https://hyper.ai/datasets/29264

10. Wikipédia

L'ensemble de données est construit à partir d'un vidage Wikipédia et contient 56 langues, avec un sous-ensemble par langue et chaque sous-ensemble contenant une division d'entraînement. Chaque exemple contient le contenu d'un article Wikipédia complet, nettoyé pour supprimer le balisage et les parties indésirables (références, etc.).

Utilisation directe :https://hyper.ai/datasets/28528

11. RJUA-QA : le premier ensemble de données de raisonnement par questions-réponses sur les spécialités médicales chinoises 

L'ensemble de données RJUA-QA contient un total de 2 132 paires questions-réponses. Chaque paire question-réponse se compose d'une question rédigée par un médecin sur la base de son expérience clinique, d'une réponse fournie par un expert et d'un contexte de raisonnement associé. Les informations contextuelles sont tirées des directives chinoises pour le diagnostic et le traitement des maladies urologiques et andrologiques.

Utilisation directe :https://hyper.ai/datasets/28970

12. ShareGPT 90k jeu de données de questions-réponses homme-machine bilingues chinois et anglais 

ShareGPT-Chinese-English-90k est un ensemble de données de réponses aux questions homme-machine de haute qualité en chinois et en anglais parallèles, couvrant les questions des utilisateurs dans des scénarios réels et complexes. Peut être utilisé pour former des modèles de dialogue de haute qualité.

Utilisation directe :

https://hyper.ai/datasets/29523

13. Ensemble de données de reconnaissance des intentions de conversation chinoises SMP-2017

Cet ensemble de données est l'ensemble de données de la tâche 1 de l'évaluation de la technologie de dialogue homme-machine chinoise (ECDT) SMP2017.

Utilisation directe :https://hyper.ai/datasets/29515

14. Base de données de la collection de poésie classique chinoise de poésie chinoise

Cet ensemble de données est la base de données la plus complète de la littérature classique chinoise, comprenant 55 000 poèmes Tang, 260 000 poèmes Song, 21 000 poèmes Song et d'autres écrits classiques.

Utilisation directe :https://hyper.ai/datasets/29257

15. MCFEND Un ensemble de données de référence multi-sources pour la détection des fausses nouvelles chinoises

Cet ensemble de données est un ensemble de données de référence de détection de fausses nouvelles chinoises multi-sources construit conjointement par l'Université baptiste de Hong Kong, l'Université chinoise de Hong Kong et d'autres institutions.

Utilisation directe :https://hyper.ai/datasets/30429

Pour plus d'ensembles de données publics, veuillez visiter:

https://hyper.ai/datasets

Grand choix de modèles

1. Mixtral-8x7B

Ce modèle est un grand modèle de langage lancé par Mistral AI basé sur Mistral 7B.

Utilisation directe :https://openbayes.com/console/public/models/f1Ze9ci0tAZ/1/overview

2. Commande C4AI-R

C4AI Command-R est un modèle génératif haute performance de 35 milliards de paramètres développé conjointement par Cohere et Cohere For AI. La combinaison des capacités de génération multilingue et des capacités RAG hautes performances confère à Command-R un avantage unique dans les tâches multilingues et les tâches à forte intensité de connaissances.

Utilisation directe :https://openbayes.com/console/public/models/moNFtsf3XUe/1/overview

3. Grand modèle financier deepmoney-34B-chat

Le modèle est formé sur la base du Yi-34B-200K et est divisé en deux étapes : pt (formation complète des paramètres) et sft (réglage fin de Lora).

Utilisation directe :https://openbayes.com/console/public/models/yiEoQipyFCK/1/overview

4. Série ChatGLM3

ChatGLM3 est un modèle de pré-formation de conversation publié conjointement par Zhipu AI et le laboratoire KEG de l'Université Tsinghua.

ChatGLM3-6B

Ce modèle est un modèle open source de la série ChatGLM3, qui conserve de nombreuses excellentes fonctionnalités des deux générations précédentes de modèles, telles qu'une conversation fluide et un seuil de déploiement bas.

Utilisation directe :https://openbayes.com/console/public/models/mHwG5TYJVTU/1/overview

ChatGLM3-6B-Base

Ce modèle est le modèle de base de ChatGLM3-6B, qui adopte des données de formation plus diversifiées, des étapes de formation plus suffisantes et des stratégies de formation plus raisonnables.

Utilisation directe :https://openbayes.com/console/public/models/7CzPfTweYvU/1/overview

5. Série LLaVA-v1.5

LLaVA est un modèle capable de conversion multimodale entre la vision et le langage, composé d'un encodeur visuel et d'un grand modèle de langage (Vicuna v1.5 13B).

LLaVA-v1.5-7B

Le modèle est un modèle de 7 milliards de paramètres de la famille LLaVA-v1.5.

Utilisation directe :https://openbayes.com/console/public/models/ZRdv9aF1hGF/1/overview

LLaVA-v1.5-13B

Le modèle est un modèle de 13 milliards de paramètres de la famille LLaVA-v1.5.

Utilisation directe :https://openbayes.com/console/public/models/PagJNrY85MC/1/overview

6. Série Yi-34B

Les modèles de la série Yi sont des modèles de langage open source de grande taille formés à partir de zéro par 01.AI. Les séries de modèles suivantes sont des modèles liés à sa taille 34B.

Chat Yi-34B

Ce modèle fait partie de la série Yi-34B et est un modèle de chat adapté à une variété de scénarios de conversation.

Utilisation directe :https://openbayes.com/console/public/models/6FUjDvKGZNT/1/overview

Yi-34B-Chat-GGUF

Ce modèle est le format GGUF du Yi-34B-Chat.

Utilisation directe :https://openbayes.com/console/public/models/1QqoTcU07zG/1/overview

Yi-34B-Chat-4bits

Ce modèle est une version quantifiée 4 bits du modèle Yi-34B-Chat et peut être utilisé directement sur des cartes graphiques grand public (telles que RTX3090).

Utilisation directe :https://openbayes.com/console/public/models/JJCjA8x48ev/1/overview

7. Série de grands modèles Qwen Tongyi Qianwen

Qwen est une série de modèles linguistiques à très grande échelle lancés par Alibaba Cloud, comprenant différents modèles avec différents nombres de paramètres. Il comprend Qwen (modèle de langage pré-entraîné de base) et Qwen-Chat (modèle de chat), et le modèle de chat est affiné à l'aide de la technologie d'alignement humain.

Qwen1.5-1.8B-Chat

Qwen1.5 est la version bêta de Qwen2, qui est une version de modèle de chat plus petite de la série Qwen2 avec une taille de paramètre de 1,8 milliard.

Utilisation directe :

https://openbayes.com/console/public/models/A83bxItlb1M/1/overview

Qwen-14B-Chat-Int4

Qwen-14B-Chat est un modèle de chat avec 14 milliards de paramètres dans la grande série de modèles Tongyi Qianwen. Ce modèle est son modèle quantifié Int4.

Utilisation directe :https://openbayes.com/console/public/models/tlA61MKMb7C/1/overview

Qwen-72B-Chat

Ce modèle est un modèle de 72 milliards de paramètres de la grande série de modèles Tongyi Qianwen.

Utilisation directe :https://openbayes.com/console/public/models/IyhI1wCMCvU/1/overview

Qwen-72B-Chat-Int4

Ce modèle est le modèle quantifié Int4 de Qwen-72B-Chat.

Utilisation directe :https://openbayes.com/console/public/models/XVAkUec0H5e/1/overview

Qwen-72B-Chat-Int8

Ce modèle est le modèle quantifié Int8 de Qwen-72B-Chat.

Utilisation directe :https://openbayes.com/console/public/models/LEnvRTil8Xe/1/overview

Sélection de tutoriels de haute qualité

1. Exécutez Qwen1.5-MoE en ligne

Qwen1.5-MoE-A2.7B est le premier modèle MoE de la série Qwen lancé par l'équipe Tongyi Qianwen. Ce tutoriel est son conteneur de démonstration. Vous pouvez utiliser le lien Gradio pour découvrir le grand modèle en le clonant en un clic.

Exécutez en ligne :https://openbayes.com/console/public/tutorials/1xfftSx42TR

2. Démo Gradio du modèle Qwen-14B-Chat-Int4

Ce tutoriel est un conteneur de démonstration de Qwen-14B-Chat-Int4. Vous pouvez le cloner en un clic et utiliser le lien Gradio pour découvrir le grand modèle.

Exécutez en ligne :https://openbayes.com/console/public/tutorials/hqe2P86oMDA

3. Démonstration du modèle Qwen-1.8B-Chat-API-FT

Ce tutoriel montre principalement comment exécuter le modèle Qwen-1.8B-Chat et le processus principal de réglage fin.

Exécutez en ligne :https://openbayes.com/console/public/tutorials/C8OUoAlBR1m

4. Démo Gradio du modèle Qwen-72B-Chat-Int4

Ce tutoriel est un conteneur de démonstration de Qwen-72B-Chat-Int4. Vous pouvez le cloner en un clic et utiliser le lien Gradio pour découvrir le grand modèle.

Exécutez en ligne :https://openbayes.com/console/public/tutorials/Gr4tiYYq24K

5. Exécutez le modèle de quantification de Yi-34B-Chat en ligne

Ce tutoriel démontre principalement le processus principal d'utilisation de LlamaEdge pour exécuter le modèle quantitatif Yi-34B-Chat.

Exécutez en ligne :https://openbayes.com/console/public/tutorials/v6ZVAzejUCM

6. Exécution du modèle financier Deepmoney-34B-full en ligne

Deepmoney est un projet de modèle de langage à grande échelle axé sur les investissements dans le domaine financier. Deepmoney-34B-full est formé sur la base du modèle Yi-34B-200K et est divisé en deux étapes : pt (formation complète des paramètres) et sft (réglage fin de Lora). Il peut désormais être cloné et utilisé en un clic sur le site officiel de Super Neuro.

Exécutez en ligne :https://openbayes.com/console/public/tutorials/uBYYEnxdpce

7. Un clic pour exécuter la démo Yi-9B

Le Yi-9B est le modèle doté des capacités de code et mathématiques les plus puissantes de la série Yi. Ce tutoriel est un conteneur de démonstration de Yi-9B.

Exécutez en ligne :https://openbayes.com/console/public/tutorials/BitjtzfuNLb

8. Déploiement rapide de ChatGLM2-6B

Ce tutoriel est un conteneur de démonstration de ChatGLM2-6B. Vous pouvez le cloner en un clic et utiliser le lien Gradio pour découvrir le grand modèle.

Exécutez en ligne :https://openbayes.com/console/public/tutorials/KD5azt9z9tn

Ce qui précède est tout le contenu sélectionné par le grand éditeur de modèles. Si vous avez des ressources que vous souhaitez inclure sur le site officiel hyper.ai, vous êtes également invités à laisser un message ou à soumettre un article pour nous le dire !

À propos d'HyperAI

HyperAI (hyper.ai) est une communauté leader en matière d'intelligence artificielle et de calcul haute performance en Chine.Nous nous engageons à devenir l'infrastructure dans le domaine de la science des données en Chine et à fournir des ressources publiques riches et de haute qualité aux développeurs nationaux. Jusqu'à présent, nous avons :

* Fournir des nœuds de téléchargement accélérés nationaux pour plus de 1 200 ensembles de données publiques

* Comprend plus de 300 tutoriels en ligne classiques et populaires

* Interprétation de plus de 100 cas d'articles AI4Science

* Prise en charge de plus de 500 termes de recherche associés

* Hébergement de la première documentation complète d'Apache TVM en Chine

Visitez le site Web officiel pour commencer votre parcours d'apprentissage :

https://hyper.ai