HyperAI

Veranstaltungsvorschau | AMD/Muxi Integrated Circuit/ByteDance/Peking University/Shanghai Innovation and Technology Trafen Sich in Peking, Um Verschiedene Perspektiven Von Der Bottom-Level-Kompilierung Bis Hin Zu Szenarioanwendungen Zu Erkunden

特色图像

In einer Zeit, in der KI Tausende von Branchen verändert, vollzieht sich still und leise eine technologische Revolution in puncto Effizienz, Einsatzfähigkeit und Nachhaltigkeit der Computertechnik. Als zentrale Middleware, die die oberen und unteren Ebenen verbindet, verbindet der KI-Compiler die zugrundeliegende Hardware mit den Anwendungen der oberen Ebene. Ob TVM, das in der Branche weit verbreitet ist, Triton, das in den letzten Jahren rasant an Bedeutung gewonnen hat, oder TileLang, eine Operator-Programmiersprache, die erst Anfang dieses Jahres aufkam – die Kompilierungstechnologie ist nicht nur eine grundlegende Garantie für die Ausführung des Modells, sondern wird auch zu einer Schlüsseltechnologie für eine effiziente Ausführung und optimierte Ressourcennutzung ausgebaut.

Innovationen und Praktiken rund um KI-Compiler entstehen ständig, und die Aufmerksamkeit der Menschen auf diesem Gebiet nimmt zu! Um Spitzenforschung und Anwendungsszenarien besser zu verknüpfen,Am 5. Juli veranstaltet HyperAI in Peking den 7. Meet AI Compiler Technology Salon.Wir freuen uns, vier erfahrene Experten von AMD, Muxi Integrated Circuit, ByteDance und der Peking-Universität einladen zu dürfen, um ihre Best Practices und Trendanalysen für KI-Compiler vorzustellen. Darüber hinaus wird Feng Siyuan, Assistenzprofessor am Shanghai Innovation Institute und Apache TVM PMC, die Roundtable-Sitzung moderieren und mit zahlreichen Dozenten eine ausführliche Diskussion zum Thema „Ein einheitliches Kompilier-Ökosystem für alle Hardware-Komponenten“ führen.

Wir haben auch exquisite Geschenke und Teepausen für alle vorbereitet, kommen Sie und machen Sie mit~

Veranstaltungsdetails

⏰ Zeit: 5. Juli (Samstag) 13:30-17:45

📍 Standort: Garage Coffee, Nr. 48, Haidian West Street, Bezirk Haidian, Peking

👬 Personenzahl: 200 (begrenzte Plätze vor Ort, bitte frühzeitig anmelden) 

🙌🏻 Registrierung: Geben Sie den untenstehenden Link ein, um sich zu registrieren

https://www.huodongxing.com/event/1810501012111

📝 Tagesordnung:

Gäste und Tagesordnung

Sitzung 1

Gäste teilen

Thema teilen:Unterstützung der Open-Source-Community durch Analyse des AMD Triton-Compilers

Inhalt:Triton ist eine von OpenAI vorgeschlagene Programmiersprache, die die Entwicklung leistungsstarker GPU-Kernel vereinfachen soll. Sie wird häufig im gängigen LLM-Reasoning-Trainingsframework eingesetzt. Benutzer können den GPU-Kernel durch die Entwicklung von Python-Triton-Code implementieren, ohne sich um die zugrunde liegenden GPU-Architekturdetails kümmern zu müssen, was den Aufwand der GPU-Codeentwicklung erheblich reduziert.

AMD hat den Triton-Compiler auf relevanten GPU-Plattformen implementiert und ihn der Triton Open Source-Community zur Verfügung gestellt. Um die GPU-Code-Leistung zu optimieren, müssen Sie den Triton-Compiler und seine Rolle bei der Kernel-Leistungsoptimierung verstehen.In diesem Beitrag wird der AMD Triton-Compiler im Detail besprochen und es wird vorgestellt, wie der Compiler die Leistung von Triton auf der AMD-GPU-Plattform verbessert.

Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:

1. Einführung in die AMD-GPU-Architektur

2. Die neueste Arbeit von AMD GPU in der Triton Open Source Community

Thema teilen:TVM-Anwendungspraxis auf Muxi GPU

Inhalt:Diese Diskussion konzentriert sich hauptsächlich auf die Anwendung von TVM auf Muxi-GPU.Für Muxi GPU werden Hochleistungsoperatoren rund um TVM generiert, um gängige KI-Frameworks auf Basis von TVM zu ermöglichen.

Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:

1. Probleme, die bei der Anpassung von TVM an inländische GPGPU auftreten können

2. Welche Vorteile bietet TVM für die inländische GPGPU und in welchen Aspekten sind weitere Durchbrüche erforderlich?

3. Über den Supportstatus von KI-Compilern wie TVM auf inländischem GPGPU und Diskussion über die Erweiterung des zugehörigen Ökosystems

Thema teilen:Triton-verteilt: native Python-Programmierung für Hochleistungskommunikation

Inhalt:Die Skalierung einzelner Chips stößt allmählich an ihre Grenzen. Einzelne Beschleuniger können das Training und die Argumentation großer Sprachmodelle nicht unterstützen. Verteilte Systeme sind zu einer zwingenden Anforderung geworden. Berechnung, Speicherzugriff und Kommunikation erfolgen in verteilten Systemen parallel, bestehende Frameworks werden jedoch meist unabhängig voneinander optimiert, was die gemeinsame Bereitstellung von Cluster-Leistung erschwert.

Dieser Bericht schlägt Triton-Distributed (Triton-Compiler-Erweiterung) vor, das als erstes die native überlappende Optimierung verteilter KI-Workloads befürwortet und die Multi-Framework-Optimierung abdeckt.Durch die Integration von OpenSHMEM-Kommunikationsprimitiven und die Verwendung des Compilers zur gemeinsamen Optimierung von drei Aktivitäten sowie die Demonstration der Anwendung überlappender Technologie und Single/Multi-Node-Programmiermethoden nutzt der generierte Code heterogene Ressourcen in einer Clusterumgebung vollständig aus, übertrifft handoptimierten Code und die Entwicklungskosten sind erheblich niedriger als bei CUDA/C++.

Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:

1. Triton-verteilte neueste Technologie

2. Herausforderungen bei der Programmierung von Kommunikation mit Python

3. Zukünftige Richtung der verteilten Kompilierung

Thema teilen:TileLang: Die Operatorentwicklung ist nicht mehr "hirnzermürbend", und die Leistung ist immer noch online

Inhalt:Dieses Mal bringen wir eine neue Operator-Programmiersprache mit – TileLang.Durch explizite Primitive auf Kachelebene und automatische Schlussfolgerungsmechanismen ermöglicht es Entwicklern, hardwarebewusste neuronale Operatoren effizient zu implementieren und so Kontrolle und Entwicklungseffizienz in Einklang zu bringen. Im Vergleich zu herkömmlichen Compilern (wie Triton) kann TileLang auf gängigen GPUs eine bis zu sechsfache Leistungssteigerung erzielen, was den Entwicklungsprozess erheblich vereinfacht und Leistungsoptimierung nicht länger „Experten vorbehalten“ macht.

Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:

1. Beherrschen Sie eine einfachere und effizientere Hochleistungs-Operator-Entwicklungssprache

2. Verstehen Sie das Kerndesignkonzept und die technischen Vorteile von TileLang

Sitzung 2

Diskussionsrunde

Themen des Runden Tisches:Einheitliches Kompilierungs-Ökosystem für alle Hardware

Veranstalter und Partner

HyperAI (hyper.ai) ist eine international führende Community für künstliche Intelligenz und Hochleistungsrechnen.Ziel ist es, Entwicklern und Enthusiasten in der globalen Datenwissenschafts- und künstlichen Intelligenzbranche beim Lernen, Verstehen und Üben zu helfen, indem eine Reihe von Diensten bereitgestellt werden, wie etwa Brancheninformationsberichte, beschleunigte Downloads von Datensätzen, Demonstrationen von Online-Tutorials, Leistungsbewertungen beliebter Modelle, Empfehlungen für topaktuelle Arbeiten, hochwertige Ergebnisinterpretationen und Integration in erstklassige Konferenzkalender, und gemeinsam mit der Community die Zukunft der künstlichen Intelligenz aufzubauen.

Besuchen Sie die offizielle Website:https://hyper.ai/

OpenBayes Bayesian Computing ist ein führender Anbieter von Hochleistungs-Computing-Diensten in ChinaDurch die Integration klassischer Software-Ökosysteme und Modelle des maschinellen Lernens in heterogene Chips der neuen Generation werden Industrieunternehmen und der wissenschaftlichen Forschung an Universitäten schnellere und benutzerfreundlichere Produkte für die Datenwissenschaft bereitgestellt. Seine Produkte werden von Dutzenden großer Industrieszenarien oder führenden wissenschaftlichen Forschungsinstituten übernommen.

Besuchen Sie die offizielle Website:https://openbayes.com/

Die MLC.AI-Community wurde im Juni 2022 gegründet. Chen Tianqi, der Haupterfinder von Apache TVM und ein bekannter junger Wissenschaftler auf dem Gebiet des maschinellen Lernens, leitete das Team bei der Einführung des MLC-Onlinekurses, der systematisch die Schlüsselelemente und Kernkonzepte der Kompilierung maschinellen Lernens vorstellte.

Im November 2022 wurde dank der gemeinsamen Anstrengungen der Freiwilligen der MLC.AI-Community die erste vollständige chinesische TVM-Dokumentation veröffentlicht und erfolgreich auf der offiziellen HyperAI-Website gehostet. Damit werden inländischen Entwicklern, die an der Kompilierung von maschinellem Lernen interessiert sind, die grundlegenden Einstellungen für den Zugriff auf und das Erlernen einer neuen Technologie – der Dokumentation – bereitgestellt.

MLC-Onlinekurse:https://mlc.ai/

Chinesische TVM-Dokumentation:https://tvm.hyper.ai/

Garage Coffee wurde im April 2011 gegründet und ist eines der ersten Unternehmen in China, das sich auf Internet-Startups in der Frühphase konzentriert. Es hat eine kostengünstige, praktische, vollstufige, offene Innovations- und Unternehmerserviceplattform für Jungunternehmer rund um das Konzept des „Massenunternehmertums“ aufgebaut.

Als erster Makerspace in der Pekinger Zhongguancun Entrepreneurship Street nutzt Garage Coffee Cafés als interaktive Plattform, um Unternehmerteams interaktive Büroräume und Inkubationsdienste für Austausch, gemeinsame Förderung, Integration und Koexistenz zu bieten. Garage Coffee ist das weltweit erste Café mit unternehmerischem Thema und Chinas einflussreichster nationaler Makerspace sowie internationale Plattform für Innovation und Unternehmertum.

Veranstaltungsbetreuung

Aktive Zeile:Scannen Sie den QR-Code, um zur Veranstaltungsregistrierung zu gelangen

Scannen Sie den QR-Code und geben Sie „AI Compiler“ ein, um der Eventgruppe beizutreten

Aufgrund der räumlichen Gegebenheiten dieser Veranstaltung haben wir lediglich 200 Plätze zur Teilnahme freigegeben. Um sich einen Platz zu sichern, empfehlen wir Ihnen, sich möglichst frühzeitig anzumelden.

Wir sehen uns am 5. Juli von 13:30 bis 17:45 Uhr!