Compte À Rebours Pour Les Billets Early Bird | TVM/Triton/TileLang Montrent Leurs Compétences Sur La Même Scène, Meet AI Compiler Vous Invite À Débloquer Les Possibilités Infinies Des Compilateurs D'ia !

HyperAI organisera le 7e salon Meet AI Compiler Technology Salon à Zhongguancun, Pékin, le 5 juillet.Cet événement a invité quatre experts confirmés d'AMD, de Muxi Integrated Circuit, de ByteDance et de l'Université de Pékin à explorer les pratiques de pointe des compilateurs d'IA sous différents angles, de la compilation de bas niveau aux applications de haut niveau. Feng Siyuan, professeur adjoint au Shanghai Chuangzhi College et à Apache TVM PMC, animera également la table ronde et discutera en profondeur avec les intervenants sur le thème « un écosystème de compilation unifié pour tous les matériels ».
🎫Les billets Early Bird seront tous vendus à 23h30 aujourd'hui, alors dépêchez-vous et montez à bord ! À bientôt !
Nous avons également préparé de superbes cadeaux et des pauses thé pour tous le jour de l'événement. Inscrivez-vous et suivez le compte officiel « HyperAI Super Neuro ». Venez nombreux participer !
Détails de l'événement
⏰ Heure : 5 juillet (samedi) 13h30-17h45
📍 Emplacement : Garage Coffee, n° 48, rue Haidian Ouest, district de Haidian, Pékin
👬 Nombre de personnes : 200 (places limitées sur place, merci de vous inscrire le plus tôt possible)
🙌🏻 Inscription : Entrez le lien pour vous inscrire~
https://www.huodongxing.com/event/1810501012111
Scannez le code QR et notez « AI Compiler » pour rejoindre le groupe d'événements :

📝 Ordre du jour :

Invités et ordre du jour
Séance 1 Partage d'invités

Partager le sujet:Aider la communauté open source, analyser le compilateur AMD Triton
Contenu:Triton est un langage de programmation proposé par OpenAI, conçu pour simplifier le développement de noyaux GPU hautes performances. Il est largement utilisé dans le framework d'entraînement au raisonnement LLM. Les utilisateurs peuvent implémenter un noyau GPU en développant du code Python Triton sans se soucier des détails de l'architecture GPU sous-jacente, ce qui simplifie considérablement le développement de code GPU.
AMD a implémenté le compilateur Triton sur les plateformes GPU concernées et l'a partagé avec la communauté open source Triton. Pour optimiser les performances du code GPU, il est essentiel de comprendre le compilateur Triton et son rôle dans l'optimisation des performances du noyau.Ce partage discutera en détail du compilateur AMD Triton et présentera comment le compilateur améliore les performances de Triton sur les plates-formes GPU AMD.
Regardez cette séance de partage et vous apprendrez :
1. Introduction à l'architecture GPU AMD
2. Derniers travaux d'AMD GPU sur la communauté open source Triton

Partager le sujet:Pratique de l'application TVM sur le GPU Muxi
Contenu:Cette discussion se concentre principalement sur la manière d’appliquer TVM sur le GPU Muxi.Pour le GPU Muxi, des opérateurs hautes performances sont générés autour de TVM pour permettre des cadres d'IA grand public basés sur TVM.
Regardez cette séance de partage et vous apprendrez :
1. Problèmes pouvant survenir lors de l'adaptation du TVM au GPGPU domestique
2. Quels sont les avantages du TVM sur le GPGPU national et quels aspects nécessitent de nouvelles avancées ?
3. À propos de l'état de support des compilateurs d'IA tels que TVM sur GPGPU national, et discuter de la manière d'étendre l'écosystème associé

Partager le sujet:Triton-distributed : programmation Python native pour une communication haute performance
Contenu:L'échelle des puces individuelles atteint progressivement un goulot d'étranglement. Les accélérateurs uniques ne peuvent pas prendre en charge l'entraînement et le raisonnement de modèles de langage volumineux. Les systèmes distribués sont devenus une exigence rigide. Le calcul, l'accès à la mémoire et la communication sont simultanés dans les systèmes distribués, mais les frameworks existants sont pour la plupart optimisés indépendamment, ce qui rend difficile la mise à disposition collaborative des performances des clusters.
Ce rapport propose Triton-distributed (extension du compilateur Triton), qui est le premier à préconiser l'optimisation native par chevauchement des charges de travail d'IA distribuées et couvre l'optimisation multi-framework.En intégrant les primitives de communication OpenSHMEM, en utilisant le compilateur pour réaliser l'optimisation conjointe de trois activités, en démontrant l'application de la technologie qui se chevauche et des méthodes de programmation à nœud unique/multiple, le code généré utilise pleinement les ressources hétérogènes dans un environnement de cluster, surpassant le code optimisé manuellement, et le coût de développement est nettement inférieur à celui de CUDA/C++.
Regardez cette séance de partage et vous apprendrez :
1. La dernière technologie distribuée par Triton
2. Défis de la programmation des communications à partir de Python
3. Orientation future de la compilation distribuée

Partager le sujet:TileLang : le développement des opérateurs n'est plus un « processus de réflexion » et les performances sont toujours en ligne
Contenu:Cette fois, nous apportons un nouveau langage de programmation d'opérateur - TileLang.Grâce à des primitives explicites au niveau des tuiles et à des mécanismes de raisonnement automatique, TileLang permet aux développeurs d'implémenter efficacement des opérateurs neuronaux sensibles au matériel, équilibrant ainsi contrôle et efficacité de développement. Comparé aux compilateurs traditionnels (comme Triton), TileLang peut multiplier par six les performances sur les GPU grand public, simplifiant ainsi considérablement le processus de développement et rendant l'optimisation des performances non plus réservée aux experts.
Regardez cette séance de partage et vous apprendrez :
1. Maîtriser un langage de développement d'opérateurs hautes performances plus simple et plus efficace
2. Comprendre le concept de conception de base et les avantages techniques de TileLang
Séance 2 Table ronde
Thèmes des tables rondes :Écosystème de compilation unifié sur l'ensemble du matériel

Organisateurs et partenaires

En tant que communauté internationale de premier plan en matière d'intelligence artificielle et de calcul haute performance, HyperAI (hyper.ai) vise à aider les développeurs et les passionnés de l'industrie mondiale de la science des données et de l'intelligence artificielle à apprendre, comprendre et pratiquer en fournissant une série de services tels que des rapports d'information sur l'industrie, des téléchargements accélérés d'ensembles de données, des démonstrations de didacticiels en ligne, des évaluations de performances de modèles populaires, des recommandations d'articles de pointe, des interprétations de résultats de grande valeur et une intégration du calendrier des conférences de premier plan, et à construire l'avenir de l'intelligence artificielle avec la communauté.
Visitez le site officiel :https://hyper.ai/

OpenBayes Bayesian Computing est un fournisseur leader de services de calcul haute performance en ChineEn greffant des écosystèmes logiciels classiques et des modèles d’apprentissage automatique sur des puces hétérogènes de nouvelle génération, il fournit aux entreprises industrielles et à la recherche scientifique universitaire des produits de calcul de science des données plus rapides et plus faciles à utiliser. Ses produits ont été adoptés par des dizaines de grands scénarios industriels ou d’instituts de recherche scientifique de premier plan.
Visitez le site officiel :https://openbayes.com/

La communauté MLC.AI a été créée en juin 2022. Chen Tianqi, le principal inventeur d'Apache TVM et un jeune chercheur bien connu dans le domaine de l'apprentissage automatique, a dirigé l'équipe pour lancer le cours en ligne MLC, qui a systématiquement présenté les éléments clés et les concepts de base de la compilation de l'apprentissage automatique.
En novembre 2022, grâce aux efforts conjoints des bénévoles de la communauté MLC.AI, la première documentation chinoise complète de TVM a été lancée et hébergée avec succès sur le site Web officiel d'HyperAI, fournissant ainsi aux développeurs nationaux intéressés par la compilation d'apprentissage automatique les paramètres de base pour accéder et apprendre une nouvelle technologie - la documentation.
Cours en ligne MLC :https://mlc.ai/
Documentation chinoise de TVM :https://tvm.hyper.ai/

Fondée en avril 2011, Garage Coffee est la première entreprise en Chine à se concentrer sur les jeunes startups Internet et à créer une plate-forme de services d'innovation et d'entrepreneuriat ouverte, à faible coût, pratique et complète, pour les jeunes entrepreneurs autour de « l'entrepreneuriat de masse ».
tour.
Premier espace de création de la rue de l'entrepreneuriat Zhongguancun à Pékin, Garage Coffee utilise les cafés comme supports interactifs pour offrir aux équipes entrepreneuriales des espaces de travail interactifs et des services d'incubation favorisant le partage, la co-promotion, l'intégration et la coexistence. Garage Coffee est le premier café au monde à vocation entrepreneuriale et le plus influent espace de création national et plateforme internationale d'innovation et d'entrepreneuriat de Chine.
Soutien aux événements

Ligne active :Scannez le code QR pour accéder à l'inscription à l'événement

Scannez le code QR et notez « AI Compiler » pour rejoindre le groupe de l'événement

Compte tenu des conditions d'espace de cet événement, nous n'avons ouvert que 200 places pour y assister. Nous vous recommandons de vous inscrire le plus tôt possible pour garantir une place.
Rendez-vous le 5 juillet de 13h30 à 17h45 !