HyperAIHyperAI

Command Palette

Search for a command to run...

Live-Stream-Wiederholung | HyperAI Veranstaltet „2023 Meet TVM“: Die Shanghai Jiao Tong University, Tencent, MachineTime Und Suiyuan Technology Treffen Sich in Shenzhen.

vor 3 Jahren
Featured Image

Überblick: Am 16. September fand im Tencent Building das Meet TVM · Shenzhen 2023 statt, veranstaltet von der MLC.AI-Community und HyperAI sowie in Zusammenarbeit mit Openbayes und dem Tencent AI Lab. Fünf hochrangige Referenten der Shanghai Jiao Tong University, von Tencent, MachineTime und Suiyuan Technology präsentierten Best Practices zu TVM und MLIR anhand ihrer eigenen Geschäftsanwendungen. HyperAI übertrug die gesamte Veranstaltung live auf Bilibili; die Aufzeichnung finden Sie unten.

Live-Übertragung: 16. September 2023

Schlüsselwörter: TVM, technischer Salon, Online-Livestream

16. SeptemberDie Veranstaltung Meet TVM Shenzhen 2023, die von der MLC.AI-Community und HyperAI ausgerichtet und von Openbayes und dem Tencent AI Lab mitorganisiert wurde, fand offiziell statt.Trotz einer Woche mit heftigem Regen blieb die Begeisterung der Community-Mitglieder ungebrochen. Über hundert Teilnehmer von Universitäten, großen Unternehmen, Chipherstellern und Forschungsinstituten reisten aus aller Welt an, um an diesem Präsenztreffen für KI-Compiler teilzunehmen. Viele andere, die nicht persönlich anwesend sein konnten, beteiligten sich derweil aktiv am Fachseminar per Livestream auf dem Bilibili-Kanal von HyperAI.

Für diese Veranstaltung haben wir fünf Dozenten der Shanghai Jiao Tong University, von Tencent, MachineTime und Suiyuan Technology eingeladen, um Best Practices zu TVM & MLIR anhand ihrer eigenen Geschäftsanwendungen vorzustellen.

Veranstaltungsrückblick

Es folgt eine kurze Einführung in die Veranstaltung und ein Videorückblick auf die Veranstaltung.

Folgen Sie dem offiziellen WeChat-Konto „HyperAI“ und antworten Sie mit dem Stichwort „TVM Shenzhen“, um die vollständige Präsentation des Sprechers zu erhalten.

Thema teilen:TVM-basierte dynamische Formoptimierung auf CPU-Seite

Inhalt:Herkömmliche Deep-Learning-Compiler (einschließlich TVM) unterstützen keine dynamischen Strukturen und sind daher für Sprachmodelle (dynamische Sequenzlänge) und Erkennungsmodelle (dynamische Breite/Höhe) ungeeignet. Um dieses Problem zu beheben, haben wir ein CPU-basiertes Optimierungsverfahren für dynamische Strukturoperatoren auf Basis von TVM entwickelt und implementiert, das bestehende Verfahren für statische Strukturen übertrifft und nahezu keine Suchzeit benötigt.

Live-Wiedergabe:bilibili.com/video/BV18u4y1z7NM/?spm_id_from=333.1387.collection.video_card.click

Thema teilen:Automatischer Entwurf eines KI-Prozessors: Der Compiler ist dominant

Inhalt:Mit der Entwicklung und Popularisierung von AIGC, dargestellt durch große Sprachmodelle, wächst der Bedarf an Rechenleistung exponentiell. Daher sind das Design von KI-Prozessorchips und die entsprechende Programmierung komplizierter geworden.

Um beides zu vereinfachen und effizienter zu gestalten, wurde eine mögliche Lösung durch die gemeinsame Entwicklung eines automatisierten Compilers und einer Computerarchitektur entworfen.

Live-Stream-Wiederholung: bilibili.com/video/BV1hj411k7v4/?spm_id_from=333.1387.collection.video_card.click

Thema teilen:MLIR und seine Praxis der KI-Graphkompilierung

Inhalt:Mit der rasanten Entwicklung von KI-Chips und KI-Frameworks sind auch KI-Compiler wie XLA und TVM entstanden. MLIR, ein universelles und wiederverwendbares Compiler-Framework, findet breite Anwendung in KI-Kompilierungssystemen, da es Hardwareherstellern hilft, schnell DS-KI-Compiler zu entwickeln.

Dieser Austausch stellt hauptsächlich einige grundlegende Wissenselemente von MLIR, den Codegen-Prozess von MLIR und die praktischen Schritte zum Erstellen eines KI-Compilers vor. Darüber hinaus diskutieren wir mit Ihnen auch die Ideen von MLIR zur Lösung der Hauptprobleme von KI-Compilern.

Live-Wiedergabe:https://www.bilibili.com/video/BV1wj411C7kJ/?spm_id_from=333.1387.collection.video_card.click&vd&vd

Thema teilen:Entwurf und Implementierung eines KI-Compilers basierend auf MLIR

Inhalt:Im Bereich KI und maschinelles Lernen gibt es viele verschiedene Software-Frameworks (wie TensorFlow, PyTorch usw.), und die Hardwaregeräte werden immer vielfältiger (CPU, GPU, TPU usw.). Als Brücke zwischen beiden stehen KI-Compiler vor vielen Herausforderungen.

Als Compiler-Infrastruktur bietet MLIR eine Reihe wiederverwendbarer und leicht erweiterbarer Basiskomponenten zum Erstellen domänenspezifischer Compiler. Tencent hat einen End-to-End-KI-Compiler auf Basis von MLIR entwickelt, um eine Kompilierungsoptimierung für die KI-Modelle der Benutzer bereitzustellen und so die Bereitstellung von Modellen auf einer Vielzahl von KI-Chips zu vereinfachen und maximale Leistung zu erzielen.

Live-Wiedergabe:bilibili.com/video/BV1vk4y1F7Ku/?spm_id_from=333.1387.collection.video_card.click

Thema teilen:Chancen und Herausforderungen maschineller Lernsysteme im Zeitalter großer Modelle

Inhalt:Im Bereich der generativen künstlichen Intelligenz und großer Sprachmodelle (LLMs) wurden bedeutende Fortschritte erzielt, die bemerkenswerte Fähigkeiten und das Potenzial zur grundlegenden Transformation vieler Bereiche demonstrieren. Gleichzeitig ergeben sich daraus neue Chancen und Herausforderungen für Systeme des maschinellen Lernens. Einerseits erhöht der enorme Rechenaufwand die Notwendigkeit der Systemoptimierung; andererseits führt die Abhängigkeit von einer einheitlichen Modellarchitektur und leistungsstarker Hardware zu einer Konvergenz des ehemals offenen Ökosystems des maschinellen Lernens.

Live-Wiedergabe:bilibili.com/video/BV1A34y1N76w/?spm_id_from=333.1387.collection.video_card.click

TVM-Treffen 2023 · Jahresabschlussfeier

Von Q1 bis Q3 dieses Jahres haben wir erfolgreich drei Offline-Treffen veranstaltet und viele Freunde, die sich für das Gebiet der KI-Compiler interessieren, dazu gebracht, sich in verschiedenen Städten zu treffen, um gemeinsam zu lernen und zu diskutieren.

Das vierte Quartal steht vor der Tür, und wir veranstalten das Meet TVM Jahresabschlusstreffen 2023, um die diesjährige Veranstaltungsreihe perfekt abzuschließen. Wir laden alle Unternehmen und Partner herzlich ein, sich auf vielfältige Weise zu beteiligen und mitzugestalten, sei es durch die Empfehlung von Referenten oder die Bereitstellung von Veranstaltungsorten und Verpflegung.

Lasst uns gemeinsam die aktivste KI-Compiler-Community in China aufbauen! Und hier noch ein Gruppenfoto von der Veranstaltung ❤️

Holen Sie sich die PPT:Folgen Sie dem offiziellen WeChat-Konto „HyperAI“ und antworten Sie mit dem Stichwort „TVM Shenzhen“, um die vollständige Präsentation des Sprechers zu erhalten.

Veranstalter und Partner

Als Organisator dieser Veranstaltung wurde im Juni 2022 die MLC.AI-Community gegründet. Unter der Leitung von Chen Tianqi, dem Haupterfinder von Apache TVM und einem bekannten jungen Wissenschaftler auf dem Gebiet des maschinellen Lernens, startete das Team den MLC-Onlinekurs, der systematisch die Schlüsselelemente und Kernkonzepte der Kompilierung maschinellen Lernens vorstellte.

Im November 2022 wurde dank der gemeinsamen Bemühungen von Freiwilligen der MLC.AI-Community die erste vollständige chinesische Dokumentation für TVM veröffentlicht und erfolgreich auf der HyperAI-Website gehostet.Darüber hinaus bietet es inländischen Entwicklern, die an der Kompilierung von maschinellem Lernen interessiert sind, die Infrastruktur (Dokumentation), um auf eine neue Technologie zuzugreifen und sie zu erlernen.

Im vierten Quartal 2023 findet in Hangzhou die Veranstaltungsreihe „2023 Meet TVM“ statt, und Unternehmen und Community-Partner sind herzlich eingeladen, an der gemeinsamen Gestaltung teilzunehmen.

MLC-Onlinekurse:https://mlc.ai/

Chinesische TVM-Dokumentation:https://tvm.hyper.ai/

Chinas führende Community für künstliche Intelligenz und Hochleistungsrechnen,Wir setzen uns dafür ein, inländischen Entwicklern hochwertige öffentliche Ressourcen im Bereich der Datenwissenschaft zur Verfügung zu stellen.Bisher wurden inländische Downloadknoten für mehr als 1.200 öffentliche Datensätze bereitgestellt, mehr als 300 Abfragen zu Begriffen aus den Bereichen künstliche Intelligenz und Hochleistungsrechnen unterstützt, die komplette chinesische TVM-Dokumentation gehostet und in Kürze werden mehrere grundlegende und beliebte Tutorials veröffentlicht.

Besuchen Sie die offizielle Website:https://hyper.ai/

OpenBayes Bayesian Computing ist ein führender Anbieter von Hochleistungs-Computing-Diensten in ChinaDurch die Integration klassischer Software-Ökosysteme und Modelle des maschinellen Lernens in heterogene Chips der neuen Generation werden Industrieunternehmen und der wissenschaftlichen Forschung an Universitäten schnellere und benutzerfreundlichere Produkte für die Datenwissenschaft bereitgestellt. Seine Produkte werden von Dutzenden großer Industrieszenarien oder führenden wissenschaftlichen Forschungsinstituten übernommen.

Besuchen Sie die offizielle Website:https://openbayes.com/

Das Tencent AI Lab ist das KI-Labor von Tencent auf Unternehmensebene.Das im April 2016 in Shenzhen gegründete AI Lab beschäftigt derzeit über 100 führende Wissenschaftler und über 300 Anwendungsingenieure. Dank Tencents langjähriger Erfahrung mit vielfältigen Anwendungsszenarien, Big Data, Rechenleistung und hochqualifizierten Fachkräften ist das AI Lab zukunftsorientiert, offen für Kooperationen und engagiert sich für die kontinuierliche Verbesserung der Kognition, Entscheidungsfindung und Kreativität von KI, um die Vision „KI überall einsetzen“ zu verwirklichen.

Tencent AI Lab legt Wert auf die Entwicklung sowohl der Forschung als auch der Anwendung.Die Grundlagenforschung konzentriert sich auf vier Hauptrichtungen: maschinelles Lernen, Computer Vision, Sprachtechnologie und Verarbeitung natürlicher Sprache; Die Technologieanwendungen konzentrieren sich auf vier Hauptbereiche: Spiele, digitale Menschen, Inhalte und soziale Interaktion und erkunden zunächst die Forschung und Anwendung von KI in der Industrie, Landwirtschaft, im Gesundheitswesen, in der Medizin, den Biowissenschaften und anderen Bereichen.