Rendez-vous Samedi Prochain À Shanghai ! AI Compiler Technology Salon Rassemble De Grands Noms Tels Que Zhiyuan, ByteDance Et Lingchuan Technology

En 2023, HyperAI a organisé 4 rassemblements Meet TVM hors ligne à Pékin, Shanghai et Shenzhen.Il a rassemblé plus de 1 000 praticiens et passionnés expérimentés et a progressivement établi une riche écologie communautaire. En 2024, HyperAI s'est concentré sur le domaine des compilateurs d'IA et a continué à fournir une plate-forme de communication ouverte aux initiés du secteur. En juillet de cette année, le 5e salon Meet AI Compiler Technology Salon a eu lieu. Alors que l’année 2024 touche à sa fin, la compétition féroce sur la piste des grands modèles se poursuit. Quelles nouvelles avancées et nouvelles applications apporteront les compilateurs d’IA ?
Le 28 décembre, HyperAI organisera le 6e salon Meet AI Compiler Technology Salon à Wujiaochang, Shanghai. L'événement sera divisé en deux parties : partage de technologies et table ronde.
Tout d’abord, nous sommes honorés d’inviter quatre experts seniors d’Horizon Robotics, de l’Académie d’intelligence artificielle de Pékin, de ByteDance et de Lingchuan Technology à partager avec nous leurs cas d’application et leurs observations du secteur. De plus, Feng Siyuan, titulaire d'un doctorat. de l'Université Jiao Tong de Shanghai et PMC d'Apache TVM, servira de modérateur de la table ronde et échangera des idées avec les invités d'un point de vue technique professionnel.
Nous avons également préparé des cadeaux exquis et des pauses thé pour tout le monde. Veuillez vous inscrire à l'événement et suivre le compte public « HyperAI Super Neuro » et répondre « 1228 Shanghai » en arrière-plan pour participer au tirage au sort.Les prix doivent être récupérés hors ligne sur le site de l'événement le 28 décembre, venez participer~
Détails de l'événement
Heure : 28 décembre (samedi) 13h30-17h45
Lieu : Salle de conférence 2F, Shanghai Wujiaochang Innovation and Entrepreneurship College (n° 322, Daxue Road, Yangpu District)
Nombre de personnes : 200 (Les places sur place sont limitées, veuillez vous inscrire le plus tôt possible)
Inscription : Cliquez sur le lien pour vous inscrire
Ordre du jour:

Invités et ordre du jour
Session 1 : Conférenciers invités

Partager le sujet:Pratique d'optimisation de la compilation et du déploiement du modèle Transformer
Introduction au contenu : Ces dernières années, le modèle Transformer a non seulement obtenu des résultats remarquables dans le domaine du LLM, mais a également été largement utilisé dans le domaine de la vision par ordinateur.Dans les scénarios de conduite autonome, l’optimisation de la compilation et du déploiement du modèle Transformer est un processus complexe. Le modèle de bout en bout et le VLM posent de grands défis à l'optimisation de la compilation et au déploiement côté terminal. Ce partage présente principalement quelques pratiques et expériences d’Horizon à cet égard.
Regardez cette séance de partage et vous apprendrez :
1. Défis liés à la compilation, à l'optimisation et au déploiement des modèles de transformateurs visuels
2. Exploration et pratique d'Horizon dans l'optimisation de la compilation des modèles Transformer

Partager le sujet:FlagGems : progrès en R&D et exploration des applications écologiques
Contenu:Depuis la sortie de la version 2.0, avec l'étroite collaboration de l'équipe Zhiyuan, des fabricants partenaires et de la communauté Triton China,FlagGems a réalisé des avancées significatives en matière de R&D dans le nombre d'opérateurs pris en charge, les performances de calcul, la génération de code et les mécanismes d'exécution.Dans le même temps, FlagGems relie l'amont et l'aval du domaine et a mené des explorations innovantes dans la formation de grands modèles et l'adaptation du raisonnement, l'intégration de puces multi-backend et d'autres aspects, élargissant encore les scénarios d'application de la bibliothèque d'opérateurs dans l'écosystème diversifié.
Regardez cette séance de partage et vous apprendrez :
1. Les dernières réalisations de FlagGems en matière de recherche et développement et les avancées technologiques
2. Pratiques et expériences innovantes dans l'adaptation des bibliothèques d'opérateurs aux grands modèles
3. Solutions techniques et effets d'application de l'intégration de puces multi-backend
4. Progrès de la construction de la communauté et de l'écosystème diversifié de Triton China

Partager le sujet:Conception de compilateurs d'IA du point de vue de l'optimisation du calcul, de l'accès à la mémoire et de la communication
Contenu:L'optimisation de la compilation pour les puces d'IA est confrontée à des défis d'optimisation sous trois angles : le calcul, l'accès à la mémoire et la communication. Ce rapport partagera trois aspects de l’expérience de conception et d’optimisation du compilateur d’IA.D'un point de vue informatique, nous partageons des optimisations pour des unités d'accélération personnalisées. Du point de vue de l'accès à la mémoire, nous partageons la modélisation et l'optimisation de l'accès à la mémoire pour les puces d'IA. D'un point de vue communication, nous partageons des expériences et des progrès dans la convergence de l'informatique et de la communication.
En regardant cette séance de partage, vous apprendrez :
1. Une perspective globale sur l'optimisation des compilateurs d'IA
2. Acquérir l’expérience et les compétences nécessaires pour exploiter pleinement la puissance de calcul des puces d’IA
3. Comprendre l’orientation future du développement des compilateurs d’IA distribués

Partager le sujet:Pratique d'optimisation de la compilation de grands modèles et d'accélération du raisonnement basée sur l'architecture multicœur NPU
Introduction au contenu : Ce partage se concentre sur l'exploration pratique de l'architecture multicœur NPU dans l'optimisation de la compilation de grands modèles et l'accélération du raisonnement.En analysant les caractéristiques de calcul de grands modèles tels que Transformer, cet article propose une optimisation matricielle basée sur une stratégie de pavage, un mécanisme de planification pour le parallélisme des données et le parallélisme des modèles, et une méthode de raisonnement efficace qui intègre les opérateurs et la conception du pipeline. Combinée aux caractéristiques parallèles de l'architecture multicœur, la décomposition des opérateurs et la gestion de la mémoire sont optimisées, améliorant considérablement le débit d'inférence et l'utilisation des ressources.
Regardez cette séance de partage et vous apprendrez :
1. Architecture d'une puce d'inférence de grands modèles basée sur le cloud
2. Stratégie d'optimisation du super opérateur Attention sous l'architecture Transformer
Table ronde de la session 2
Thèmes des tables rondes :Développement collaboratif de puces, de réseaux, de logiciels, d'algorithmes et d'écosystèmes

Organisateurs et partenaires

HyperAI est une communauté leader en matière d'intelligence artificielle et de calcul haute performance en Chine.Son objectif est d'aider les développeurs et les passionnés de l'industrie chinoise de la science des données et de l'intelligence artificielle à apprendre, comprendre et pratiquer en fournissant une variété d'infrastructures telles que des téléchargements accélérés d'ensembles de données, des démonstrations de tutoriels en ligne, une interprétation approfondie des articles et une intégration du calendrier des conférences de haut niveau, et de construire l'avenir de l'intelligence artificielle avec la communauté. Actuellement, le site Web officiel de SuperNeural a lancé des milliers d'ensembles de données et de tutoriels publics classiques et de haute qualité, et gère la communauté de compilateurs d'IA la plus active en Chine.
Visitez le site officiel :https://hyper.ai/

OpenBayes Bayesian Computing est un fournisseur leader de services de calcul haute performance en ChineEn greffant des écosystèmes logiciels classiques et des modèles d’apprentissage automatique sur des puces hétérogènes de nouvelle génération, il fournit aux entreprises industrielles et à la recherche scientifique universitaire des produits de calcul de science des données plus rapides et plus faciles à utiliser. Ses produits ont été adoptés par des dizaines de grands scénarios industriels ou d’instituts de recherche scientifique de premier plan.
Visitez le site officiel :https://openbayes.com/

La communauté MLC.AI a été fondée en juin 2022 et dirigée par Chen Tianqi, le principal inventeur d'Apache TVM et un jeune chercheur bien connu dans le domaine de l'apprentissage automatique, l'équipe a lancé le cours en ligne MLC.Les éléments clés et les concepts fondamentaux de la compilation d’apprentissage automatique sont systématiquement introduits.
En novembre 2022, grâce aux efforts conjoints des bénévoles de la communauté MLC.AI, la première documentation chinoise complète de TVM a été lancée et hébergée avec succès sur le site Web officiel d'HyperAI, fournissant ainsi aux développeurs nationaux intéressés par la compilation d'apprentissage automatique les paramètres de base pour accéder et apprendre une nouvelle technologie - la documentation.
Cours en ligne MLC :https://mlc.ai/
Documentation chinoise de TVM :https://tvm.hyper.ai/

Le Shanghai Wujiaochang Innovation and Entrepreneurship College est une organisation d'éducation et de services à but non lucratif initiée conjointement par le gouvernement du district de Yangpu, des universités célèbres, des entreprises leaders du secteur et des institutions de services entrepreneuriaux.Avec pour mission de « créer des liens profonds pour rendre l’innovation et l’entrepreneuriat plus réussis », nous connectons les entrepreneurs et les facilitateurs, améliorons l’efficacité de l’allocation des ressources pour l’innovation et l’entrepreneuriat et promouvons la création.
En novembre 2022, l'Académie d'entrepreneuriat de Wujiaochang ouvrira officiellement l'espace public de l'académie, ouvrant 800 mètres carrés d'espace à la foule entrepreneuriale. Elle lancera également conjointement la marque caritative entrepreneuriale « Academy Coffee » avec des partenaires tels que le CUHK Shanghai Center et le Shui On Group, et invitera les KOL, les entreprises et les organisations sociales qui ont un consensus sur les services caritatifs entrepreneuriaux à devenir des « partenaires caritatifs » pour concevoir conjointement différentes formes de rassemblement pour les entrepreneurs.Jusqu'à présent, « College Coffee » a organisé plus de 140 activités thématiques sur l'innovation et l'entrepreneuriat en duo sous diverses formes, réunissant plus de 3 000 participants.
Soutien aux événements
