HyperAI

Aperçu De L'événement | 2023 Meet TVM · Beijing Station Est Prévu, Laquelle Des 5 Conférences Attendez-vous Le Plus Avec Impatience ?

il y a 2 ans
Information
Yinrong Huang
特色图像

Contenu en un coup d'œil :La deuxième étape du rassemblement hors ligne Meet TVM 2023 est prévue le 17 juin ! Cette fois, nous avons organisé 5 conférences et avons hâte de vous rencontrer tous à Zhongguancun, Pékin !

Mots-clés:Événement hors ligne du compilateur 2023MeetTVM

Cet article a été publié pour la première fois sur la plateforme publique HyperAI WeChat~

Le 4 mars, le premier événement hors ligne de 2023 Meet TVM s'est tenu avec succès à Shanghai. Plus de 100 ingénieurs engagés dans le développement de compilateurs d'IA et attentifs au développement de TVM se sont réunis à Wujiaochang pour des discussions et des échanges complets et animés.

Lire les articles précédents :Revue de l'événement | 2023 Meet TVM s'est réuni pour la première fois à Shanghai, plus de 100 ingénieurs ont discuté du présent et de l'avenir de la compilation de l'apprentissage automatique

Après plus de 3 mois, le rassemblement hors ligne tant attendu et attendu à Pékin est enfin là !Nous avons invité 5 experts seniors en compilateurs d'IA à partager leur expérience avec le public à travers des cas d'application et des meilleures pratiques dans des scénarios réels.

Informations sur l'événement Meet TVM Beijing 2023

⏰  temps:17 juin (samedi) 14h00-18h00

📍  Lieu:Garage Café, n° 48, rue Haidian Ouest, district de Haidian

👬  Nombre de personnes :100 (places limitées, veuillez vous inscrire tôt) 

🙌🏻  S'inscrire:Scannez le code QR ci-dessous pour vous inscrire (choisissez l'une des deux options : ligne d'activité ou grille de cent)

Ligne active :Scannez le code QR pour accéder à l'inscription à l'événement

Activités Baige :Scannez le code QR pour accéder à l'inscription à l'événement Baige

Scannez le code QR et notez « TVM Beijing » pour rejoindre le groupe de l'événement

📝 Horaire :

Cliquez sur l'image pour voir l'ordre du jour complet

Brève présentation des invités et du contenu


Partager le sujet:
Déployez des modèles de langage sur n'importe quel appareil à l'aide de MLC-LLM

Contenu:Des progrès significatifs ont été réalisés dans le domaine de l’IA générative et des grands modèles linguistiques (LLM), qui ont des capacités remarquables et le potentiel de changer fondamentalement de nombreux domaines. Actuellement, la plupart de ces modèles nécessitent une puissance de calcul et des besoins en mémoire importants et ne peuvent pas être déployés sur des PC personnels, des téléphones portables et des appareils finaux plus petits. MLC-LLM optimise la vitesse d'exécution et les besoins en mémoire grâce à la technologie de compilation, permettant de déployer des LLM côté client et fournissant une nouvelle infrastructure pour le développement ultérieur de modèles de langage.

Regardez cette séance de partage et vous apprendrez :

1. Défis rencontrés lors du déploiement de modèles à grande échelle

2. Le rôle de la technologie de compilation d'apprentissage automatique (MLC) dans les scénarios de grands modèles

3. Détails techniques du MLC-LLM

Partager le sujet:TVM chez ARM Chine

Contenu:Avec le développement vigoureux des applications d'IA, diverses puces NPU sont utilisées sur les appareils de pointe pour accélérer les applications d'IA. S’adapter rapidement à différents cadres d’apprentissage automatique et systèmes d’exploitation est devenu un problème difficile. En intégrant sa propre chaîne d'outils à TVM, ARM China a réalisé de multiples fonctions pratiques telles que le fractionnement de graphes et l'exécution hétérogène automatique, aidant les clients à déployer rapidement des applications d'IA sur la puce ARM China Zhouyi NPU.

Regardez cette séance de partage et vous apprendrez :

1. Introduction à ARM Chine Zhouyi NPU

2. Implémentation du fractionnement de graphes et de l'exécution hétérogène automatique basée sur le framework BYOC

3. Construction et utilisation du système TVM RPC

4. Solution de diffusion TVM de qualité commerciale

5. Comment localiser rapidement les problèmes de précision du modèle

Partager le sujet:Pratique de la programmation hétérogène et de la compilation de l'IA

Contenu:Les puces d’IA évoluent constamment vers une hétérogénéité étroitement couplée. La programmabilité des puces et l’optimisation des performances sont des problèmes clés que l’industrie tente de résoudre. Ce partage présentera principalement certaines des pratiques d'Horizon en matière d'optimisation de la compilation de l'IA, de programmabilité, etc., et permettra des discussions approfondies avec chacun sur certaines questions clés.

Regardez cette séance de partage et vous apprendrez :

1. Tendance évolutive de l'architecture des puces d'IA

2. Quelques expériences pratiques d'optimisation de la compilation de l'IA

3. Quelques explorations sur la programmabilité des puces d'IA

Partager le sujet:TVM chez NIO 

Contenu:Le domaine de la conduite autonome est un domaine où coexistent défis et opportunités. Avec l'itération des produits et les exigences de plus en plus élevées des utilisateurs en matière d'expérience de conduite, les moteurs d'IA courants ne sont pas en mesure de prendre en charge efficacement et en toute sécurité les lignes de production de produits complexes. Nous avons développé le propre compilateur d'IA de NIO basé sur TVM, qui a résolu certains problèmes courants dans le domaine de la conduite autonome et a formé une solution systématique et une architecture technique. Cette fois, trois ingénieurs de NIO, Meng Tong, Chen Xi et Wang Lulu, partageront des détails sur les technologies et les architectures impliquées.

Regardez cette séance de partage et vous apprendrez :

1. Exigences particulières pour la compilation et la diffusion de modèles dans le domaine de la conduite autonome

2. Comment utiliser TVM pour réaliser une optimisation collaborative entre différents systèmes/écosystèmes d'apprentissage automatique

3. Solutions quantitatives personnalisées conçues pour les scénarios d'application de conduite autonome

4. Comment utiliser les fonctionnalités de TVM pour créer un moteur d'inférence haute performance

Partager le sujet:Optimisation de la compilation de réseaux neuronaux dynamiques

Contenu:Les réseaux neuronaux dynamiques présentent des avantages importants par rapport aux réseaux neuronaux statiques en termes de précision, d’efficacité de calcul et d’adaptabilité. Cependant, les cadres et compilateurs d’apprentissage profond existants se concentrent principalement sur l’optimisation des réseaux statiques avec une exécution déterministe, manquant ainsi les opportunités d’optimisation dans les réseaux dynamiques. La clé pour optimiser un réseau dynamique est de suivre les données qui le traversent. Cette conférence présentera nos travaux sur la compilation de réseaux neuronaux dynamiques.

Regardez cette séance de partage et vous apprendrez :

1. La clé de l'optimisation de la compilation dynamique du réseau : le suivi des données au niveau du sous-tenseur

2. Meilleure représentation des réseaux neuronaux dynamiques

3. Opportunités d'optimisation de la compilation dynamique dans les réseaux neuronaux

Présentation des organisateurs et des partenaires

En tant qu'organisateur de cet événement, MLC.AI Community (https://mlc.ai/) a été fondée en juin 2022 et dirigée par Chen Tianqi, le principal inventeur d'Apache TVM et un jeune chercheur bien connu dans le domaine de l'apprentissage automatique, l'équipe a lancé le cours en ligne MLC, qui a systématiquement introduit les éléments clés et les concepts de base de la compilation d'apprentissage automatique.

En novembre 2022, grâce aux efforts conjoints des bénévoles de la communauté MLC.AI,Le premier document TVM chinois complet a été lancé et hébergé avec succès sur le site officiel d'HyperAI.Il fournit également aux développeurs nationaux intéressés par la compilation d'apprentissage automatique l'infrastructure - la documentation - pour accéder et apprendre une nouvelle technologie.

En 2023, la communauté lancera la série d'activités « 2023 Meet TVM » dans de nombreuses villes du pays et invite les entreprises et les partenaires communautaires à participer à la co-création.

Cours en ligne MLC :https://mlc.ai/

Documentation chinoise de TVM :https://tvm.hyper.ai/

HyperAI est la principale communauté chinoise d'intelligence artificielle et de calcul haute performance.Nous nous engageons à fournir des ressources publiques de haute qualité dans le domaine de la science des données aux développeurs nationaux.Jusqu'à présent, il a fourni des nœuds de téléchargement nationaux pour plus de 1 200 ensembles de données publiques, pris en charge plus de 300 requêtes de termes liés à l'intelligence artificielle et au calcul haute performance, hébergé la documentation chinoise complète de TVM et lancera bientôt plusieurs didacticiels de base et populaires.

Visitez le site officiel :https://orion.hyper.ai/

OpenBayes Bayesian Computing est un fournisseur national de premier plan de services de calcul haute performance. En greffant des écosystèmes logiciels classiques et des modèles d'apprentissage automatique sur des puces hétérogènes de nouvelle génération, il fournit des produits de calcul de science des données plus rapides et plus faciles à utiliser pour les entreprises industrielles et la recherche scientifique universitaire. Ses produits ont été adoptés par des dizaines de grands scénarios industriels ou d’instituts de recherche scientifique de premier plan.

Visitez le site officiel :https://openbayes.com/

Garage Coffee est une plateforme qui rassemble des entrepreneurs. S'appuyant sur un coffee shop, il offre aux start-ups une solution complète d'investissement et de financement à guichet unique, aidant les parties prenantes du projet à lever rapidement des fonds et à promouvoir un développement rapide. Parallèlement, il fournit des services à valeur ajoutée de haute qualité tels que le conseil en entrepreneuriat, la mise en correspondance des ressources, la publicité et le reporting, et aide les investisseurs à découvrir rapidement de bons projets, fournissant une base pour leur investissement principal, leur investissement de suivi, leur production de ressources, leur production d'expérience, etc., et favorisant le développement collaboratif entre les groupes d'investisseurs à plusieurs niveaux.


Ligne active :Scannez le code QR pour accéder à l'inscription à l'événement

Activités Baige :Scannez le code QR pour accéder à l'inscription à l'événement Baige

Scannez le code QR et notez « TVM Beijing » pour rejoindre le groupe de l'événement

Compte tenu de l'espace disponible pour cet événement,Nous n'avons ouvert que 100 places pour vous.Il est recommandé de s'inscrire le plus tôt possible pour garantir une place.

La série d'événements Meet TVM 2023 Q2 se tiendra à Pékin le 17 juin, à bientôt !

Cet article a été publié pour la première fois sur la plateforme publique HyperAI WeChat~