HyperAI

Bilan D'activité (2e Partie) | Analyse Des Tendances Des Systèmes D'apprentissage Automatique, Résumé Des Citations D'experts

il y a un an
Temple de la renommée
Yang Bai
特色图像

Auteurs : Sanyang, Li Baozhu, Li Weidong, Yudi, xixi

Rédacteur en chef : Li Baozhu

À l’ère des grands modèles, les systèmes d’apprentissage automatique subissent des changements sans précédent. L’expansion rapide de la taille des modèles nous a permis d’assister à une énorme amélioration des capacités de l’IA. Cependant, cette amélioration a non seulement apporté de nouvelles opportunités dans divers domaines, mais a également conduit à une série de nouveaux défis techniques et de difficultés pratiques.

Le 16 décembre, la fête de fin d'année 2023 Meet TVM · s'est déroulée avec succès à la base de formation publique des entrepreneurs de Shanghai. Dans ce Meetup,Apache TVM PMC et Ph.D. de l'Université Jiao Tong de Shanghai Feng Siyuan a été l'hôte et a eu un échange et une discussion complets et multi-angles avec quatre invités sur le thème « Systèmes d'apprentissage automatique à l'ère des grands modèles ».

Les quatre invités de cette table ronde sont :

* Wang Chenhan, fondateur et PDG d'OpenBayes Bayesian Computing

* Wu Zhao, responsable du moteur d'IA de conduite autonome de NIO

* Jin Lesheng, ingénieur système d'apprentissage automatique chez OctoML

* Zhu Hongyu, ingénieur système d'apprentissage automatique chez ByteDance

De gauche à droite : Feng Siyuan, Wang Chenhan, Wu Zhao, Jin Lesheng, Zhu Hongyu

Nous avons résumé cette conversation comme suit sans violer l’intention initiale. Venez écouter les merveilleux témoignages des invités.

Les systèmes d'apprentissage automatique à l'ère des grands modèles

Étape 1 : Discours de discussion

À ce stade, les grands modèles sont un sujet brûlant dans tous les domaines, qu'il s'agisse du cloud, du côté final ou du véhicule (Tesla FSD V12). Tous les invités rencontreront des problèmes d’optimisation du système lors de la formation et du déploiement de grands modèles dans le cadre de travaux ou de discussions réels. Veuillez présenter à tour de rôle les principaux défis et solutions que vous avez rencontrés. 

Wang Chenhan :Le calcul bayésien d'OpenBayes a commencé à former des modèles monomodaux en juin de cette année. SuperCLUE  Elle se classe cinquième dans la liste des startups nationales de modélisme à grande échelle.Du point de vue de la technologie de formation des grands modèles, le problème principal auquel nous sommes confrontés actuellement est la latence du réseau. Fondamentalement, aucune puce ne peut fonctionner à pleine capacité sur son propre cluster.

selon OpenAI  Selon la « mise à l'échelle de Kubernetes à 2500 nœuds » sur le site officiel, l'utilisation maximale du GPU lors de la formation de GPT-3 ne doit pas dépasser 18%, et l'utilisation moyenne est d'environ 12-15%. Cela signifie que si vous dépensez 100 millions pour construire un cluster, seulement 12 à 15 millions de l’investissement dans ce cluster seront utiles.D'un point de vue financier, maximiser le parallélisme des données, le fonctionnement du pipeline et le parallélisme vectoriel constitue en réalité le plus grand défi de la formation.

Les défis du déploiement/de l’inférence en Chine sont principalement des problèmes d’ingénierie complexes. Si la bande passante de la mémoire vidéo n’est pas très bonne, l’optimisation PCIE est en fait assez problématique. Le calcul bayésien d'OpenBayes et de nombreux fabricants en amont et en aval utilisent vLLM, ce qui permet d'économiser beaucoup de travail d'ingénierie et de réduire considérablement la charge de travail du raisonnement.

Jinlesheng :Les défis que nous avons rencontrés peuvent être divisés en deux points principaux :

1. Étant donné que TVM et MLC-LLM fonctionnent à une vitesse de 7B, il arrive qu'une carte ne puisse pas stocker un modèle plus grand, tel que 70B.Le trimestre dernier, nous avons essayé d’utiliser le parallélisme tensoriel pour résoudre ce problème. Cette solution est désormais open source. Si vous êtes intéressé, vous pouvez l'essayer.

2. Il y a une autre exigence.Nous ne prenons actuellement en charge que la taille de lot = 1.Il est plus adapté à un usage individuel, mais si vous pensez à une portion, vous constaterez qu'il est bien inférieur à vLLM, que nous développons également actuellement.

Feng Siyuan :Je voudrais également ajouter que la tendance principale du raisonnement n’est pas encore claire. Bien que Transformer soit l’architecture principale utilisée par les grands modèles, dans l’ensemble, il existe encore de nombreux changements dans les méthodes. Dans ce cas, la question reste de savoir si Transformer peut unifier de grands modèles.Par conséquent, dans les scénarios où il existe une incertitude dans les couches supérieures et inférieures, la personnalisation et le développement agile peuvent être plus importants que la compilation de bout en bout TVM traditionnelle.À mon avis, il y a encore beaucoup de marge de progression dans le raisonnement et la formation des grands modèles.

Étape 2 : Interrogatoire ciblé

À mesure que l'interdiction américaine a été renforcée, les restrictions se sont étendues de l'interdiction initiale sur les cartes de formation pour affecter également les cartes d'inférence de grands modèles. À court terme, quelle est la solution la plus rentable pour le raisonnement basé sur le cloud de grands modèles ? (Les cartes de jeu et les cartes graphiques sont autorisées), nationales Unité nationale de puissance Combien de temps faudra-t-il au GPU pour combler le vide dans le domaine de l’inférence ?

Wang Chenhan :Les tailles des modèles de formation et d’inférence sont différentes, et les scénarios d’utilisation et les charges commerciales sont différents, il est donc difficile de trouver une réponse unifiée.

Du point de vue de la sélection des bords, la puce domestique Rockchip 3588 est une bonne option. Il présente de bonnes performances et un bon rapport coût-efficacité, une pile technologique relativement universelle et est relativement bon marché et facile à obtenir.De plus, Nvidia Orin est équivalent à une version castrée du GPU Ampere.Si la spécification budgétaire q4f 16 est respectée, Orin ne sera pas soumis à beaucoup de pression pour exécuter des modèles 7B, 14B ou même 34B de la mémoire vidéo à l'inférence.

Pour la sélection basée sur le cloud, NVIDIA a ensuite dévoilé trois puces : H20, L20 et L2. Selon les informations officielles de NVIDIA, le niveau de raisonnement réel des grands modèles est probablement le 70%-80% du L40. Bien que l'A6000 ait été ajouté plus tard à la liste des appareils interdits, l'inventaire est relativement important. L'avantage de l'A6000 est qu'il dispose d'une grande mémoire vidéo, 48 Go, avec NVLink. Si vous en installez une paire, vous pouvez obtenir un 130% A100.

Grâce à nos contacts avec les fabricants de puces nationaux, nous savons que tout le monde essaie effectivement d'optimiser autant que possible l'Attention Backbone unique.

Étape 2 : Interrogatoire ciblé


Dans le domaine des puces domestiques, combien de temps pensez-vous qu'il faudra à une entreprise pour réussir véritablement du côté de l'inférence et être en mesure de ravir des parts de marché à Nvidia ?

Wang Chenhan :Je pense que les fabricants de puces nationaux seront en mesure de prendre le contrôle de plus de 20% de parts de marché de Nvidia dans les 18 mois.La principale raison de ce jugement est que les politiques favorables de mon pays et les sanctions continues des États-Unis ont favorisé l’augmentation du taux de localisation. De plus, à ma connaissance, il existe déjà des fabricants nationaux dont la compatibilité avec les instructions et API NVIDIA CUDA peut atteindre 92% ou plus. Je suis donc toujours très confiant dans ma prédiction du cycle de 18 mois.


Étape 2 : Interrogatoire ciblé

Pourquoi NIO a choisi TVM ? Quels sont les avantages du TVM dans le domaine de la conduite autonome ?

Wu Zhao :Tout d’abord, c’est certainement parce que j’ai une formation technique TVM, donc lors de la constitution d’une équipe, je donnerai la priorité à TVM. Deuxièmement,Dans les projets réels, un critère important pour déterminer si une technologie est raisonnable est de savoir si son architecture peut répondre aux besoins de l’entreprise.

La conduite autonome est un scénario d’application très complexe et les exigences en matière d’architecture sont plus strictes. Lors du choix d’une voie technique, il est nécessaire de prendre en compte de manière exhaustive les exigences et les cycles du projet.Pour l'activité de conduite autonome de NIO, la livraison du premier modèle ET7 est prévue pour mars 2022. À cette époque, notre équipe n'avait que six mois pour gérer le modèle complexe de conduite autonome, nous avons donc dû choisir une solution de bout en bout. À cette époque, de nombreux concurrents amicaux utilisaient TensorRT. Le problème avec TensorRT est que les modèles deviendront de plus en plus complexes et les exigences de plus en plus étranges, ce qui n’est pas adapté à long terme.

La première question à prendre en compte dans le domaine de la conduite autonome est de savoir comment contrôler pleinement les performances, la précision et d’autres paramètres du côté du véhicule.Étant donné que la conduite autonome doit résoudre de nombreuses situations particulières, l’équipe d’algorithmes forme principalement des modèles dans le cloud, puis les déploie sur le véhicule. Dans ce processus, si vous utilisez la boîte noire TensorRT, vous ne pouvez pas maîtriser complètement son algorithme de quantification, et la quantification est très importante pour nous.

De plus, MLIR est très adapté aux compilateurs traditionnels, mais il nécessite un temps relativement important dans les premières étapes. Considérant que nous avions un délai relativement strict à l’époque et que nous devions choisir une solution de bout en bout, nous avons abandonné MLIR après évaluation.

enfin,Pour la conduite autonome, la stabilité du déploiement global et la faible utilisation du processeur sont cruciales.Nous devons donc choisir une solution entièrement contrôlable et capable de réduire l’utilisation du processeur, ce qu’une boîte noire ne peut pas réaliser.

En résumé,Le téléviseur entièrement blanc était la meilleure option pour nous à l’époque.

Étape 3 : Discours de discussion

À l’heure actuelle, les grands modèles et les modèles à conduite autonome sont liés les uns aux autres. Dans ce cas, l’algorithme du modèle, le système et même la puce auront une évolution commune. Les enseignants peuvent partager leur point de vue à ce sujet.

Wang Chenhan :Je pense que DSA et GPGPU sont susceptibles d’être interdépendants et qu’aucun des deux ne peut se passer de l’autre. À l’avenir, l’architecture des puces ne se présentera pas uniquement sous la forme d’Attention.  Récemment, de nombreuses nouvelles technologies et de nouveaux produits ont émergé dans la communauté, tels que Mistral 7B MoE, le RetNet , l'essor de la multimodalité, etc., l'unification de l'ensemble de l'architecture par de grands modèles de langage ne sera peut-être qu'une courte illusion de mars à octobre de cette année. Il est très probable que l’architecture future de l’IA et le paradigme défini par NVIDIA devront perdurer pendant un certain temps.Mais NVIDIA ne sera peut-être pas toujours en mesure de maintenir son avance à cet égard. Il ne fait aucun doute qu’Attention réduira l’écart entre les autres suiveurs et NVIDIA.Par exemple, AMD MI300X et d’autres puces nationales dont les noms ne sont pas pratiques à mentionner publiquement.

De plus en plus de tendances,L’évolution de l’architecture centrée sur GPGPU continuera d’être une tendance à long terme.

Wu Zhao :Dans l’expérience d’un projet réel, de petits changements sont possibles, mais les grands changements sont difficiles. En d’autres termes, dans le but de répondre essentiellement aux besoins de l’entreprise, des ajustements et des adaptations peuvent être effectués sur le matériel.Cependant, si Transformer est nécessaire pour obtenir de bons résultats, mais que certains matériels ont un très mauvais support pour Transformer, d'un point de vue commercial, nous ne déploierons pas sur ce matériel. Voilà l’état actuel de l’industrie.

En ce qui concerne les défis, je pense qu’il y en aura certainement, y compris ceux mentionnés ci-dessus. R  Ou RNN, ce n'est plus la complexité quadratique de l'Attention, mais la complexité linéaire.Il y a aussi un problème ici. Cela ne suffit pas à lui seul à réussir le défi, car nous pouvons utiliser une certaine compression ou d’autres moyens pour répondre aux exigences d’effets dans des scénarios limités. Dans ce cas, l’écologie et les effets du RWKV ne sont pas aussi bons que ceux du Transformer, et les utilisateurs n’ont aucune raison d’abandonner le Transformer et d’adopter le RWKV.

Donc à mon avis,Les algorithmes sont la force motrice la plus importante.Si l’effet de l’algorithme peut être obtenu, nous pourrions envisager d’autres puces système en tenant compte du rapport coût-performance.

Jinlesheng :Mon idée est très similaire à celle du professeur Wu. J'ai déjà travaillé sur l'apprentissage automatique et publié quelques articles sur l'IA. J’ai constaté que les personnes qui font du ML prêtent rarement attention à la latence ou aux indicateurs liés au système. Ils sont davantage préoccupés par l’amélioration de la précision et par leur capacité à atteindre le SOTA.Je pense donc que si un nouveau modèle émerge dont les performances surpassent complètement celles de Transformer, il deviendra certainement courant et tous les fabricants de matériel et de logiciels s'y adapteront. Je pense donc que l’algorithme continuera à dominer.

Wang Chenhan :Nous avons précédemment estimé que le coût de formation du RWKV peut être réduit à environ 1/3 lorsque l’échelle des paramètres est grande.Par exemple, lors de la création d’un modèle d’apprentissage automatique à grande échelle, tout le monde s’appuie sur des outils de communication et de communication. Après être passé du niveau exponentiel au niveau linéaire, ses besoins en communication diminueront.

Bien que le mécanisme d'attention ait commencé à attirer l'attention des gens en 2017, en parcourant et en analysant les articles mondiaux liés à l'apprentissage automatique, nous avons constaté que le nombre d'articles publiés en 2022 dépassait à lui seul le total des années précédentes.

Il ne fait aucun doute que GPT-3 ou même ChatGPT est cette étape importante.Même avant la naissance de ViT, presque personne ne croyait que l’attention pouvait être utilisée pour des tâches visuelles. Nous savons qu'une structure de modèle a toujours besoin d'un événement pour prouver son efficacité, soit l'échelle des paramètres est énorme et efficace, soit le mécanisme est SOTA dans un certain type de tâche. En repensant à RWKV, la raison pour laquelle RWKV n'a pas encore montré le potentiel de surpasser Attention est probablement due à l'énorme écart dans le budget d'investissement. Le potentiel du RWKV est loin d’être prouvé.

Je pense que nous devrions prédire le Backbone après Attention en fonction du Backbone existant. À l’heure actuelle, il semble que RWKV et RetNet de Microsoft aient ce potentiel.

Étape 3 : Discours de discussion

Le déploiement futur des grands modèles se fera-t-il principalement côté client ou sur le cloud ?

Wu Zhao :Je pense que l’accent sera mis sur le côté final dans les 3 à 5 prochaines années. Tout d’abord, la forme du produit du grand modèle ne sera certainement pas basée uniquement sur Chat. À l’avenir, il y aura certainement beaucoup de grands modèles verticaux.Par exemple, les voitures autonomes, les téléphones portables, les micro-robots, etc. sont tous des terminaux, et la demande et la puissance de calcul de ce type d'inférence sont énormes. Il est peu probable qu’un tel cloud puisse prendre en charge autant de scénarios et d’appareils. Dans le même temps, pour les applications à forte sensibilité à la latence, comme la conduite autonome, la latence de bout en bout jusqu’au cloud doit également être prise en compte.

Wang Chenhan :Les grands modèles peuvent prendre plus de temps à déployer dans le cloud que nous le pensons. Auparavant, tout le monde pensait généralement que le cloud serait l’objectif principal dans les 1 à 2 prochaines années, et qu’il passerait au stade final dans environ 5 ans.Mon propre jugement est que le système sera basé sur le cloud d’ici 3 à 4 ans, et les tests de bout en bout d’ici 5 à 8 ans.

Prenons l’exemple de GPT-3.5 (20B). Il occupe 10 Go+ au T4 FP16. En mettant de côté la consommation d'énergie, utiliser 10 Go+ pour stocker un modèle sur un téléphone portable n'est pas quelque chose que tout le monde peut accepter maintenant.De plus, le développement des processus de fabrication de puces ralentit et l’architecture des puces ne progressera plus aussi rapidement qu’au cours des 20 dernières années. Je ne pense donc pas que le modèle cloud puisse être décentralisé vers le côté final de sitôt.

Feng Siyuan :fermerEn ce qui concerne le développement attendu de Transformer, je suis d’accord avec l’opinion de Chen Han selon laquelle il est peu probable qu’il soit complètement séparé du cloud d’ici 5 ans.Mais si un nouveau modèle sort, il pourrait résoudre une partie du problème de puissance de calcul. Si vous souhaitez déployer un grand modèle sur un téléphone mobile, la puissance de calcul ne manque pas. Prenons l’exemple d’un téléphone Android. Il dispose d'une unité matricielle 35T, mais cette unité matricielle est un lot unique, elle est donc complètement inutile lorsqu'on raisonne sur un grand modèle. S’il existe un modèle capable de résoudre le problème de raisonnement des tests finaux, il sera très probablement résolu dans les six mois suivant la publication du modèle. Quant à savoir quand ce modèle sortira, il est encore difficile de le dire.

La méthode de production des modèles, en particulier des modèles côté terminal, est complètement différente de celle des modèles déployés dans le cloud. Cela doit être dirigé par l’entreprise. Par exemple, des fabricants comme Qualcomm et Apple concevront un modèle spécifiquement destiné à être déployé sur des téléphones mobiles ou des terminaux.Si vous voulez que votre modèle ait son effet, vous n'avez pas besoin de surpasser Transformer, il suffit de vous rapprocher de Transformer. Cela est plus adapté du côté client et doit être lié aux différences de conception, de formation et de tâches du modèle.

Wu Zhao :L’approche dominante actuelle consiste à dériver un grand modèle dans le cloud, puis à distiller un petit modèle.D’un point de vue pratique, nous nous intéressons davantage à la manière de soutenir le développement commercial de certaines applications verticales. Il n’est pas nécessaire de déployer un modèle aussi grand que LLaMA. Dans les scénarios verticaux, le nombre de paramètres peut être de 1 à 3B.

Wang Chenhan :Aujourd'hui, nous avons discuté de l'architecture et de Backbone, mais nous n'avons pas pris en compte l'échelle des données.Sur la base des principes de la science de l'information des prédécesseurs de Shannon, dans certaines conditions de matrice, la quantité de données transportées est limitée et des méthodes de compression plus efficaces entraîneront inévitablement des pertes.Par conséquent, si vous souhaitez une certaine performance - en supposant que cette performance soit basée sur GPT-3.5, nous venons de mentionner 10 Go+, alors même si un Backbone plus efficace apparaît, nous devons croire qu'il ne sera pas inférieur à 7 Go. Pour prendre en charge les modèles de ce niveau, le stockage de l'appareil peut être étendu, mais sa puissance de calcul ne sera pas réduite.

J’ai mentionné plus tôt que la vitesse d’itération du processus ralentit.Il est possible que dans 5 à 10 ans, les performances que nous pouvons obtenir d’une puce de taille unique ne soient pas aussi bonnes qu’elles l’étaient au cours des 3 dernières années. C’est un fait que nous pouvons constater maintenant.

2024 Rencontrez TVM · L'avenir est prometteur

Du premier au quatrième trimestre 2023, nous avons organisé avec succès quatre rencontres hors ligne à Shanghai, Pékin et Shenzhen. Nous sommes très heureux de rassembler des ingénieurs concernés par les compilateurs d'IA dans différentes villes et de fournir à chacun une plateforme d'apprentissage et de communication. En 2024, nous continuerons d’élargir la carte de la ville de TVM et inviterons sincèrement toutes les entreprises et tous les partenaires communautaires à participer à la co-création sous diverses formes. Qu'il s'agisse de recommander des conférenciers ou de fournir des lieux et des pauses thé, nous les accueillons tous.

Travaillons ensemble pour créer la communauté de compilateurs d’IA la plus active en Chine !


Les amis qui n'ont pas regardé le merveilleux discours de l'invité peuvent cliquerRevue de l'événement (Partie 1) | La série d'événements Meet TVM 2023 s'est terminée avec succèsVoir l'enregistrement complet~
Suivez le compte public WeChat « HyperAI 超神经元 », répondez au mot-clé « TVM year-end party » en arrière-plan et obtenez le PPT complet des invités.
Vous pouvez également noter « TVM Year-End Party », scanner le code QR pour rejoindre le groupe d'événements et obtenir les dernières informations sur l'événement ~

Organisateurs et partenaires

En tant qu'organisateur de cet événement, la communauté MLC.AI a été créée en juin 2022. Dirigée par Chen Tianqi, le principal inventeur d'Apache TVM et un jeune chercheur bien connu dans le domaine de l'apprentissage automatique, l'équipe a lancé le cours en ligne MLC, qui a systématiquement présenté les éléments clés et les concepts de base de la compilation de l'apprentissage automatique.

En novembre 2022, grâce aux efforts conjoints des bénévoles de la communauté MLC.AI, la première documentation chinoise complète de TVM a été lancée et hébergée avec succès sur le site Web officiel d'HyperAI, fournissant ainsi aux développeurs nationaux intéressés par la compilation d'apprentissage automatique les paramètres de base pour accéder et apprendre une nouvelle technologie - la documentation.
Cours en ligne MLC :https://mlc.ai/Documentation chinoise de TVM :https://tvm.hyper.ai/

HyperAI est la principale communauté chinoise d'intelligence artificielle et de calcul haute performance, dédiée à la fourniture de ressources publiques de haute qualité dans le domaine de la science des données aux développeurs nationaux.Jusqu'à présent, il a fourni des nœuds de téléchargement nationaux pour plus de 1 200 ensembles de données publiques, pris en charge plus de 300 requêtes de termes liés à l'intelligence artificielle et au calcul haute performance, et a désormais inclus des centaines de termes et de cas industriels, lancé des milliers d'ensembles de données publiques et de tutoriels, y compris de grands modèles, et hébergé la documentation chinoise complète de TVM.
Visitez le site officiel :https://hyper.ai/

OpenBayes Bayesian Computing est un fournisseur leader de services de calcul haute performance en ChineEn greffant des écosystèmes logiciels classiques et des modèles d’apprentissage automatique sur des puces hétérogènes de nouvelle génération, il fournit aux entreprises industrielles et à la recherche scientifique universitaire des produits de calcul de science des données plus rapides et plus faciles à utiliser. Ses produits ont été adoptés par des dizaines de grands scénarios industriels ou d’instituts de recherche scientifique de premier plan.
Visitez le site officiel :https://openbayes.com/

L'espace centimétrique (Xiamen) estGroupe de marchands chinoisSa société de gestion de parc d'innovation professionnelle exploite l'incubateur professionnel « CM Space » à Xiamen. Enracinés sur la côte sud-est, en nous appuyant sur les avantages des trois principales activités de China Merchants Group, à savoir le transport, le développement global des villes et des parcs et la finance, nous nous concentrons sur la fourniture aux startups d'intelligence artificielle des scénarios d'application les plus urgents, la vérification des modèles, les clients en phase d'amorçage et d'autres ressources de soutien aux premiers stades de développement, et aidons à l'incubation efficace des entreprises d'intelligence artificielle.

supérieurBase de Haiyun(Shanghai Cloud Computing Innovation Base, Shanghai Big Data Innovation Base) est un incubateur professionnel de niveau national qui a démarré très tôt en Chine, favorisant le développement de l'industrie du cloud computing de 0 à 1. Avec le modèle de fonds + base + plateforme, et avec l'industrie de l'économie numérique comme noyau, il se concentre sur des sous-secteurs tels que le cloud computing, le cloud natif, le big data et l'intelligence artificielle, et la santé numérique, et a rassemblé et incubé près d'un millier d'entreprises exceptionnelles au pays et à l'étranger. En connectant les quatre écosystèmes de technologie, d'utilisateurs, de capitaux et de services, nous continuons d'organiser le « Scenario Innovation Lab » et le « Digital Economy Listing Preparation Camp » pour construire une économie numérique.Accélérateur industriel.

Homevalley - une plate-forme de services transfrontaliers à guichet unique pour les entreprises mondiales, s'engage à créer une plate-forme de services d'entreprise orientée vers le marché avec des bases d'incubation entrepreneuriales, des talents Homevalley, des services d'entreprise Homevalley et une communication culturelle Homevalley comme contenu principal. Nous nous connectons avec des groupes de réflexion étrangers et des ressources de marché en Amérique du Nord, en Europe, en Asie, etc., fournissons des services tels que l'exploitation de parcs industriels et de bases d'incubation, la formation à l'entrepreneuriat, des services de conseil aux entreprises, l'investissement et le financement, le développement du retour des talents à l'étranger, l'innovation mondiale et les activités d'entrepreneuriat, et aidons les start-ups chinoises à se lancer à l'étranger. Home Valley vise à découvrir, cultiver et réaliser des talents, à aider les jeunes talents exceptionnels à réaliser leurs rêves et à créer un lieu d'accueil pour les rapatriés afin de créer des entreprises et de cultiver des talents.