HyperAI

Offline-Event in Shanghai | KI-Compilerpraxis Und Innovation Im LLM-Zeitalter

vor einem Jahr
Information
Bina
特色图像

Im März dieses Jahres Die erste Offline-Veranstaltung der Meet TVM-Reihe 2023 begann in Shanghai und erstreckte sich über mehrere Städte.Unser Ziel ist es, Ingenieuren aus aller Welt, die sich für KI-Compiler interessieren, eine Lern- und Kommunikationsplattform bereitzustellen.

16. Dezember 2023 Meet TVM · Die Jahresabschlussparty kehrt nach Shanghai zurück,Dieses Mal haben wir nicht nur 4 erfahrene KI-Compiler-Experten eingeladen, um Ihnen wunderbare Einblicke zu geben,Außerdem wurde eine Diskussionsrunde am runden Tisch hinzugefügt.Apache TVM PMC und Ph.D. der Shanghai Jiao Tong University. Feng Siyuan wird als Moderator fungieren und die Innovationen und Herausforderungen von Systemen des maschinellen Lernens im Zeitalter großer Modelle aus einer vielfältigeren Perspektive diskutieren.

Da Weihnachten vor der Tür steht, laden wir alle ein, ihren Outfits weihnachtliche Elemente hinzuzufügen. Außerdem bereiten wir für alle vor Ort erlesene Teepausen und kleine Geschenke vor.Ich freue mich darauf, mit Ihnen allen eine weihnachtliche KI-Compiler-Party zu feiern!

⏰ Zeit:16. Dezember (Samstag) 13:30-17:40

Ort:Hörsaal 2. Stock, Shanghai Wujiaochang Innovation and Entrepreneurship College (Nr. 322, Daxue Road, Bezirk Yangpu)

Anzahl der Personen:200 (Die Plätze vor Ort sind begrenzt, bitte melden Sie sich so früh wie möglich an)

Melden Sie sich an:Scannen Sie den QR-Code unten, um sich zu registrieren

Scannen Sie den QR-Code und vermerken Sie „TVM-Jahresabschlussparty“, um der Eventgruppe beizutreten:

Zeitplan:

@冯思远

Thema teilen: Tiefer Einblick in TVM Unity

Inhalt:Nach mehr als einem Jahr der Iteration und Aktualisierung wird TVM Unity voraussichtlich in naher Zukunft in den Hauptzweig von Apache TVM integriert und wird dann zum Hauptkompilierungsprozess von Apache TVM.In diesem Beitrag wird der Standardkompilierungsprozess von TVM Unity vorgestellt, der Unterschied zum vorhandenen TVM erläutert und erklärt, wie der vorhandene Workflow zu Unity migriert wird.

Durch das Ansehen dieser Sharing-Sitzung erfahren Sie:

1. Strukturdesign von TVM Unity

2. Der Standardkompilierungsprozess von TVM Unity

3. So migrieren Sie vorhandene Workflows zu TVM Unity

Thema teilen:Slim-LM: Einheitliches Kompilierungsframework für agile Entwicklung

Inhalt:Mit der schrittweisen Weiterentwicklung von MLC LLM und TVM Unity möchten immer mehr Benutzer versuchen, mit TVM ihre eigenen Modelle bereitzustellen. Es gibt jedoch viele Herausforderungen bei der flexiblen und effizienten Nutzung von TVM zum Erstellen und Kompilieren von Modellen.

Basierend auf dieser Forderung,Die TVM-Community hat vor Kurzem ein neues Framework, Slim-LM, eingeführt, um den Aufbau und die Kompilierung von TVM-Modellen zu vereinfachen.Enthält drei Hauptfunktionen:

1. Codedefinition im PyTorch-Stil TVM-Modell

2. Einfache und effiziente Kompilierungstools

3. Einheitliches Quantisierungsalgorithmus-Framework

Durch das Ansehen dieser Sharing-Sitzung erfahren Sie:

1. Einige Infrastruktur von Slim-LM und der damit verbundene Komfort

2. Definieren/kompilieren Sie ein neues Modell mit Slim-LM

3. Grundlegende Schritte von Slim-LM zur Implementierung des neuen Quantisierungsalgorithmus

Thema teilen:Kompilierungsoptimierungspraxis basierend auf TVM

Inhalt:Durch die iterative Entwicklung von KI-Compilern wurden deren Benutzerfreundlichkeit und Benutzerfreundlichkeit erheblich verbessert.Als einer der Vertreter von KI-Compilern ist es eine wichtige Frage, wie die Rolle von TVM maximiert, seine eigenen Mängel behoben und es in großem Maßstab in Geschäftsszenarien wie Suche, Übertragung und Werbung implementiert werden kann.Dieser Austausch wird hauptsächlich die oben genannten Perspektiven erläutern.

Durch das Ansehen dieser Sharing-Sitzung erfahren Sie:

1. TVM-Leistungsumfang in typischen Geschäftsszenarien

2. TVM erweitert die Fähigkeiten rechenintensiver Operatoren

3. TVM-Operator-Fusion und Gerätezuweisungsoptimierung

Thema teilen:Auf dem Weg zur nahtlosen Integration der Modellkompilierung

Inhaltseinführung: Die Modellkompilierung wird bei der KI-Beschleunigung immer wichtiger.Allerdings ist die Übernahme der Modellkompilierung für Produktionsmodelle in IT-Unternehmen keine einfache Angelegenheit. Zu den größten Belastungen zählen Modelle aus unterschiedlichen Domänen, Frameworks oder Formaten, die Umstellung von vorhandenen Bibliotheken und die Einführung neuer ASICs. Um diese Probleme zu lösen, wurde ByteIR entwickelt, um die Produktivität der Modellkompilierung zu verbessern. ByteIR basiert auf OpenXLA und der LLVM/MLIR-Compiler-Infrastruktur.Es umfasst Front-End-, Compiler- und Laufzeitkomponenten, die jeweils unterschiedliche Probleme lösen. Diese drei Komponenten können zusammenarbeiten oder unabhängig voneinander arbeiten, um unterschiedliche Geschäftsanforderungen zu erfüllen.

Durch das Ansehen dieser Sharing-Sitzung erfahren Sie:

1. Entwurf des ByteIR-Compilers basierend auf MLIR

2. Leistungsoptimierungspraxis basierend auf dem MLIR-Kompilierungsstapel

Themen des Runden Tisches:Maschinelle Lernsysteme im Zeitalter großer Modelle

Veranstalter und Partner

Als Organisator dieser Veranstaltung wurde im Juni 2022 die MLC.AI-Community gegründet. Unter der Leitung von Chen Tianqi, dem Haupterfinder von Apache TVM und einem bekannten jungen Wissenschaftler auf dem Gebiet des maschinellen Lernens, startete das Team den MLC-Onlinekurs, der systematisch die Schlüsselelemente und Kernkonzepte der Kompilierung maschinellen Lernens vorstellte.

Im November 2022 wurde dank der gemeinsamen Anstrengungen der Freiwilligen der MLC.AI-Community die erste vollständige chinesische TVM-Dokumentation veröffentlicht und erfolgreich auf der offiziellen HyperAI-Website gehostet. Damit werden inländischen Entwicklern, die an der Kompilierung von maschinellem Lernen interessiert sind, die grundlegenden Einstellungen für den Zugriff auf und das Erlernen einer neuen Technologie – der Dokumentation – bereitgestellt.

MLC-Onlinekurse:https://mlc.ai/

Chinesische TVM-Dokumentation:https://tvm.hyper.ai/

Chinas führende Community für künstliche Intelligenz und Hochleistungsrechnen,Wir setzen uns dafür ein, inländischen Entwicklern hochwertige öffentliche Ressourcen im Bereich der Datenwissenschaft zur Verfügung zu stellen.Bisher wurden inländische Downloadknoten für mehr als 1.200 öffentliche Datensätze bereitgestellt, mehr als 300 Abfragen zu Begriffen aus den Bereichen künstliche Intelligenz und Hochleistungsrechnen unterstützt, die komplette chinesische TVM-Dokumentation gehostet und in Kürze werden mehrere grundlegende und beliebte Tutorials veröffentlicht.

Besuchen Sie die offizielle Website:https://hyper.ai/

OpenBayes Bayesian Computing ist ein führender Anbieter von Hochleistungs-Computing-Diensten in ChinaDurch die Integration klassischer Software-Ökosysteme und Modelle des maschinellen Lernens in heterogene Chips der neuen Generation werden Industrieunternehmen und der wissenschaftlichen Forschung an Universitäten schnellere und benutzerfreundlichere Produkte für die Datenwissenschaft bereitgestellt. Seine Produkte werden von Dutzenden großer Industrieszenarien oder führenden wissenschaftlichen Forschungsinstituten übernommen.

Besuchen Sie die offizielle Website:https://openbayes.com/

CM Space (Xiamen) ist ein professionelles Innovationspark-Managementunternehmen der China Merchants Group, das den professionellen Inkubator „CM Space“ in Xiamen betreibt.Das an der Südostküste verwurzelte Unternehmen stützt sich auf die Vorteile der drei Hauptgeschäftsbereiche der China Merchants Group: Transport, umfassende Stadt- und Parkentwicklung sowie Finanzen.Der Schwerpunkt liegt darauf, Startups im Bereich der künstlichen Intelligenz mit der Ressourcenunterstützung zu versorgen, die sie in den frühen Entwicklungsphasen am dringendsten benötigen, wie etwa Anwendungsszenarien, Modellüberprüfung und Kunden in der Startphase, um die effiziente Inkubation von Unternehmen im Bereich der künstlichen Intelligenz zu unterstützen.

Das Shanghai Penta Innovation & Entrepreneurship Institute ist eine gemeinnützige Bildungs- und Dienstleistungsorganisation, die gemeinsam von der Bezirksregierung Yangpu, der Fudan-Universität, der Tongji-Universität, der Shanghai University of Finance and Economics, der Shanghai University of Technology und anderen namhaften Universitäten sowie führenden Unternehmen und Investmentinstitutionen der Branche gegründet wurde.Es hat zahlreiche Branchenführer, Experten und Wissenschaftler, namhafte Investoren/Institutionen sowie Organisationen zur Stärkung von Unternehmertum zusammengebracht, mit dem Ziel, ein „doppeltes Innovationsökosystem“ + eine „Lerngemeinschaft“ aufzubauen, Unternehmer zu Unternehmern auszubilden und ein wichtiger Knotenpunkt im unternehmerischen Ökosystem zu werden.

Im November 2022 eröffnete das Shanghai Wujiaochang Innovation and Entrepreneurship College offiziell den öffentlichen Raum des Colleges und stellte 800 Quadratmeter Fläche für Unternehmertum und Innovation bereit. Gemeinsam mit Partnern wie dem CUHK Shanghai Center brachte es die gemeinnützige Marke „College Coffee“ für Unternehmertum und Innovation auf den Markt.Wir laden KOLs, Unternehmen und soziale Organisationen, die sich über die öffentlichen Wohlfahrtsdienste von Massenunternehmertum und Innovation einig sind, ein, die „Gemeinwohlpartner“ des Academy Cafés zu werden und gemeinsam verschiedene Formen der Zusammenkunft von Unternehmern zu entwickeln, daraus ein Markenprojekt mit vielfältigen Konnotationen zu machen und den Raum des Unternehmertums zu einem „offenen, inklusiven, gemeinsamen und nicht geschlossenen öffentlichen Wohnzimmer“ zu machen.

Shanghai Cloud Base (Shanghai Cloud Computing Innovation Base, Shanghai Big Data Innovation Base) ist ein professioneller Inkubator auf nationaler Ebene, der schon früh in China gegründet wurde und die Entwicklung der Cloud-Computing-Branche von 0 auf 1 fördert. Mit dem Modell Fonds + Basis + Plattform und der Digitalwirtschaftsbranche als Kern konzentriert es sich auf Untersektoren wie Cloud Computing, Cloud Native, Big Data und künstliche Intelligenz sowie digitales Gesundheitswesen und hat fast tausend herausragende Unternehmen im In- und Ausland versammelt und inkubiert.Durch die Verbindung der vier Ökosysteme Technologie, Benutzer, Kapital und Dienste führen wir weiterhin das „Scenario Innovation Laboratory“ und das „Digital Economy IPO Preparation Camp“ durch, um einen Beschleuniger für die digitale Wirtschaft aufzubauen.

Aktivitätszeile: Scannen Sie den QR-Code, um zur Aktivitätszeile zu springen und sich zu registrieren

Scannen Sie den QR-Code und vermerken Sie „TVM-Jahresabschlussparty“, um der Veranstaltungsgruppe beizutreten

In Anbetracht der Größe des Veranstaltungsortes dieser Veranstaltung,Wir haben nur 200 Plätze für die Teilnahme freigegeben. Daher empfehlen wir Ihnen, sich so früh wie möglich anzumelden, um Ihren Platz zu sichern.

2023 Meet TVM · Jahresabschlussparty,16. Dezember, 13:30-17:40 Uhr,Ich freue mich darauf, Sie alle in Shanghai zu treffen!