Aperçu De L'événement | AMD/Muxi Integrated Circuit/ByteDance/Université De Pékin/Shanghai Innovation and Technology Se Sont Réunis À Pékin Pour Explorer De Multiples Perspectives, De La Compilation De Bas Niveau Aux Applications De Scénarios

À l'heure où l'IA transforme des milliers d'industries, une révolution technologique en matière d'efficacité, de déployabilité et de durabilité informatique s'opère discrètement. Intergiciel essentiel reliant les niveaux supérieurs et inférieurs, le compilateur d'IA connecte le matériel sous-jacent et les applications de niveau supérieur. Qu'il s'agisse de TVM, largement utilisé dans l'industrie, de Triton, en plein essor ces dernières années, ou de TileLang, un langage de programmation opérateur apparu en début d'année, la technologie de compilation constitue non seulement une garantie fondamentale de l'exécution du modèle, mais elle est également en cours de mise à niveau pour devenir une technologie clé permettant une exécution efficace et une optimisation de l'utilisation des ressources.
Les innovations et les pratiques autour des compilateurs d'IA continuent d'émerger, et l'intérêt pour ce domaine ne cesse de croître ! Afin de mieux relier la recherche de pointe à ses applications,Le 5 juillet, HyperAI organisera le 7e salon Meet AI Compiler Technology Salon à Pékin.Nous avons l'honneur d'inviter quatre experts confirmés d'AMD, de Muxi Integrated Circuit, de ByteDance et de l'Université de Pékin à partager leurs meilleures pratiques et analyses de tendances en matière de compilateurs d'IA. Feng Siyuan, professeur adjoint à l'Institut d'innovation de Shanghai et à Apache TVM PMC, animera la table ronde et échangera en profondeur avec de nombreux intervenants sur le thème « un écosystème de compilation unifié pour tous les matériels ».
Nous avons également préparé des cadeaux exquis et des pauses thé pour tout le monde, venez nous rejoindre~
Détails de l'événement
⏰ Heure : 5 juillet (samedi) 13h30-17h45
📍 Emplacement : Garage Coffee, n° 48, rue Haidian Ouest, district de Haidian, Pékin
👬 Nombre de personnes : 200 (places limitées sur place, merci de vous inscrire le plus tôt possible)
🙌🏻 Inscription : Entrez le lien ci-dessous pour vous inscrire
https://www.huodongxing.com/event/1810501012111
📝 Ordre du jour :

Invités et ordre du jour
Séance 1
Partage d'invités

Partager le sujet:Aider la communauté open source, analyser le compilateur AMD Triton
Contenu:Triton est un langage de programmation proposé par OpenAI, conçu pour simplifier le développement de noyaux GPU hautes performances. Il est largement utilisé dans le framework d'entraînement au raisonnement LLM. Les utilisateurs peuvent implémenter un noyau GPU en développant du code Python Triton sans se soucier des détails de l'architecture GPU sous-jacente, ce qui simplifie considérablement le développement de code GPU.
AMD a implémenté le compilateur Triton sur les plateformes GPU concernées et l'a partagé avec la communauté open source Triton. Pour optimiser les performances du code GPU, il est essentiel de comprendre le compilateur Triton et son rôle dans l'optimisation des performances du noyau.Ce partage discutera en détail du compilateur AMD Triton et présentera comment le compilateur améliore les performances de Triton sur les plates-formes GPU AMD.
Regardez cette séance de partage et vous apprendrez :
1. Introduction à l'architecture GPU AMD
2. Derniers travaux d'AMD GPU sur la communauté open source Triton

Partager le sujet:Pratique de l'application TVM sur le GPU Muxi
Contenu:Cette discussion se concentre principalement sur la manière d’appliquer TVM sur le GPU Muxi.Pour le GPU Muxi, des opérateurs hautes performances sont générés autour de TVM pour permettre des cadres d'IA grand public basés sur TVM.
Regardez cette séance de partage et vous apprendrez :
1. Problèmes pouvant survenir lors de l'adaptation du TVM au GPGPU domestique
2. Quels sont les avantages du TVM sur le GPGPU national et quels aspects nécessitent de nouvelles avancées ?
3. À propos de l'état de support des compilateurs d'IA tels que TVM sur GPGPU national, et discuter de la manière d'étendre l'écosystème associé

Partager le sujet:Triton-distributed : programmation Python native pour une communication haute performance
Contenu:L'échelle des puces individuelles atteint progressivement un goulot d'étranglement. Les accélérateurs uniques ne peuvent pas prendre en charge l'entraînement et le raisonnement de modèles de langage volumineux. Les systèmes distribués sont devenus une exigence rigide. Le calcul, l'accès à la mémoire et la communication sont simultanés dans les systèmes distribués, mais les frameworks existants sont pour la plupart optimisés indépendamment, ce qui rend difficile la mise à disposition collaborative des performances des clusters.
Ce rapport propose Triton-distributed (extension du compilateur Triton), qui est le premier à préconiser l'optimisation native par chevauchement des charges de travail d'IA distribuées et couvre l'optimisation multi-framework.En intégrant les primitives de communication OpenSHMEM, en utilisant le compilateur pour réaliser l'optimisation conjointe de trois activités, en démontrant l'application de la technologie qui se chevauche et des méthodes de programmation à nœud unique/multiple, le code généré utilise pleinement les ressources hétérogènes dans un environnement de cluster, surpassant le code optimisé manuellement, et le coût de développement est nettement inférieur à celui de CUDA/C++.
Regardez cette séance de partage et vous apprendrez :
1. La dernière technologie distribuée par Triton
2. Défis de la programmation des communications à partir de Python
3. Orientation future de la compilation distribuée

Partager le sujet:TileLang : le développement des opérateurs n'est plus un « processus de réflexion » et les performances sont toujours en ligne
Contenu:Cette fois, nous apportons un nouveau langage de programmation d'opérateur - TileLang.Grâce à des primitives explicites au niveau des tuiles et à des mécanismes de raisonnement automatique, TileLang permet aux développeurs d'implémenter efficacement des opérateurs neuronaux sensibles au matériel, équilibrant ainsi contrôle et efficacité de développement. Comparé aux compilateurs traditionnels (comme Triton), TileLang peut multiplier par six les performances sur les GPU grand public, simplifiant ainsi considérablement le processus de développement et rendant l'optimisation des performances non plus réservée aux experts.
Regardez cette séance de partage et vous apprendrez :
1. Maîtriser un langage de développement d'opérateurs hautes performances plus simple et plus efficace
2. Comprendre le concept de conception de base et les avantages techniques de TileLang
Séance 2
Table ronde
Thèmes des tables rondes :Écosystème de compilation unifié sur l'ensemble du matériel

Organisateurs et partenaires

HyperAI (hyper.ai) est une communauté internationale de premier plan en matière d'intelligence artificielle et de calcul haute performance.Son objectif est d'aider les développeurs et les passionnés de l'industrie mondiale de la science des données et de l'intelligence artificielle à apprendre, comprendre et pratiquer en fournissant une série de services tels que des rapports d'information sur l'industrie, des téléchargements accélérés d'ensembles de données, des démonstrations de didacticiels en ligne, des évaluations de performances de modèles populaires, des recommandations de documents de pointe, des interprétations de résultats de grande valeur et une intégration du calendrier des conférences de premier plan, et de construire l'avenir de l'intelligence artificielle avec la communauté.
Visitez le site officiel :https://hyper.ai/

OpenBayes Bayesian Computing est un fournisseur leader de services de calcul haute performance en ChineEn greffant des écosystèmes logiciels classiques et des modèles d’apprentissage automatique sur des puces hétérogènes de nouvelle génération, il fournit aux entreprises industrielles et à la recherche scientifique universitaire des produits de calcul de science des données plus rapides et plus faciles à utiliser. Ses produits ont été adoptés par des dizaines de grands scénarios industriels ou d’instituts de recherche scientifique de premier plan.
Visitez le site officiel :https://openbayes.com/

La communauté MLC.AI a été créée en juin 2022. Chen Tianqi, le principal inventeur d'Apache TVM et un jeune chercheur bien connu dans le domaine de l'apprentissage automatique, a dirigé l'équipe pour lancer le cours en ligne MLC, qui a systématiquement présenté les éléments clés et les concepts de base de la compilation de l'apprentissage automatique.
En novembre 2022, grâce aux efforts conjoints des bénévoles de la communauté MLC.AI, la première documentation chinoise complète de TVM a été lancée et hébergée avec succès sur le site Web officiel d'HyperAI, fournissant ainsi aux développeurs nationaux intéressés par la compilation d'apprentissage automatique les paramètres de base pour accéder et apprendre une nouvelle technologie - la documentation.
Cours en ligne MLC :https://mlc.ai/
Documentation chinoise de TVM :https://tvm.hyper.ai/

Fondée en avril 2011, Garage Coffee est l'une des premières entreprises chinoises à se concentrer sur les startups Internet en phase de démarrage. Elle a développé une plateforme de services d'innovation et d'entrepreneuriat ouverte, pratique, complète et à faible coût pour les entrepreneurs en phase de démarrage, autour du concept d'« entrepreneuriat de masse ».
Premier espace de création de la rue de l'entrepreneuriat Zhongguancun à Pékin, Garage Coffee utilise les cafés comme supports interactifs pour offrir aux équipes entrepreneuriales des espaces de travail interactifs et des services d'incubation favorisant le partage, la co-promotion, l'intégration et la coexistence. Garage Coffee est le premier café au monde à vocation entrepreneuriale et le plus influent espace de création national et plateforme internationale d'innovation et d'entrepreneuriat de Chine.
Soutien aux événements

Ligne active :Scannez le code QR pour accéder à l'inscription à l'événement

Scannez le code QR et notez « AI Compiler » pour rejoindre le groupe de l'événement

Compte tenu des conditions d'espace de cet événement, nous n'avons ouvert que 200 places pour y assister. Nous vous recommandons de vous inscrire le plus tôt possible pour garantir une place.
Rendez-vous le 5 juillet de 13h30 à 17h45 !