HyperAI

Veranstaltungsvorschau | 2024 Meet AI Compiler – Premiere in Peking Für Den 6. Juli Geplant!

vor einem Jahr
Information
zhaorui
特色图像

Die Veranstaltungsreihe Meet TVM 2023 umfasste insgesamt 4 Meetups.Die Veranstaltung fand in drei verschiedenen Städten statt und 19 KI-Compiler-Experten aus unterschiedlichen Branchen wurden eingeladen, um spannende Einblicke zu geben und mehr als tausend Teilnehmer aus Wissenschaft und Industrie anzulocken.

Nach einem neuen Upgrade im Jahr 2024 ist Meet AI Compiler einsatzbereit. Das erste Offline-Meetup findet am 6. Juli am Institute of Computing Technology der Chinesischen Akademie der Wissenschaften statt.Wir haben das Glück, zu diesem Meetup viele hochrangige KI-Compiler-Experten von der Shanghai Jiao Tong University, dem Institute of Computing Technology der Chinesischen Akademie der Wissenschaften, Microsoft Research Asia usw. einladen zu können. Sie werden uns großartige Grundsatzreden und Diskussionsrunden bieten und mit uns die Anwendung und Durchbrüche der KI-Compiler-Technologie in praktischen Szenarien diskutieren.

Veranstaltungsdetails

⏰ Zeit: 6. Juli (Samstag) 13:30-17:40

Ort: Hörsaal, 1. Stock, Institut für Computertechnologie, Chinesische Akademie der Wissenschaften, Nr. 6, Kexueyuan South Road, Bezirk Haidian, Peking

Institut für Computertechnologie, Chinesische Akademie der Wissenschaften
Nr. 6, Kexueyuan South Road, Zhongguancun, Bezirk Haidian, Peking
Personenzahl: 200 (Die Plätze vor Ort sind begrenzt, bitte melden Sie sich so früh wie möglich an)

Registrierung: Scannen Sie den untenstehenden QR-Code, um sich zu registrieren

Scannen Sie den QR-Code und geben Sie „AI Compiler“ ein, um der Eventgruppe beizutreten:

Agenda:

Gäste und Tagesordnung

Gäste teilen

Thema teilen:MLCEngine: Eine universelle LLM-Bereitstellungs-Engine

Inhaltseinführung: In diesem Beitrag wird MLCEngine vorgestellt, eine LLM-Engine, die universell auf verschiedenen Plattformen eingesetzt werden kann. MLCEngine verfügt nicht nur über LLM-Bereitstellungsfunktionen mit hohem Durchsatz und geringer Latenz auf dem Server, sondern unterstützt auch die nahtlose Bereitstellung der heutigen hochwertigen großen Sprachmodelle in verschiedenen lokalen Umgebungen.

Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:

1. Designkonzept und Verwendung von MLCEngine

2. Die Bedeutung des universellen Einsatzes

3. Gedanken zur Entwicklung der LLM-Argumentationsmaschine

Thema teilen:ElasticRoom: Multi-Tenant-DNN-Inferenz-Engine durch Co-Design mit ressourcenbeschränkter Kompilierung und starker Prioritätsplanung

Inhalt:GPU-Ressourcenpartitionierungsmechanismen in Laufzeitsoftware werden häufig in Job-Schedulern und Multi-Tenant-Computersystemen verwendet, um die Ressourcennutzung und den Durchsatz zu verbessern. Der vorhandene Mechanismus zur GPU-Ressourcenpartitionierung kann jedoch nicht gleichzeitig die GPU-Ressourcennutzung verbessern und eine geringe Latenz für Echtzeitanforderungen gewährleisten, wenn mit heterogenen DNN-Inferenzanforderungen im Batch-Format zu rechnen ist.Wir schlagen eine innovative Multi-Tenant-DNN-Inferenz-Engine namens ElasticRoom vor, die eine ressourcenbeschränkte Kompilierung auf TVM-Basis erstellt und durch Prioritätsplanung sowohl eine hohe GPU-Auslastung als auch eine geringe Latenz für Echtzeitanforderungen erreicht.

Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:

1. GPU-Ressourcenverwaltung und Aufgabenplanung

2. Ressourcenbeschränkte Kompilierung basierend auf TVM

Thema teilen:Effizientes Deep-Learning-Kompilierungssystem basierend auf Kachelabstraktion

Inhalt:Mit der rasanten Entwicklung von Deep-Learning-Algorithmen und -Hardware stellt die Branche höhere Anforderungen an eine effiziente und schnelle Modellbereitstellung. Deep-Learning-Compiler stellen eine neue Möglichkeit dar, den rechnerischen Ausdruck eines Modells mit der zugrunde liegenden Hardwareausführung zu verbinden. Es bestehen jedoch noch immer viele Herausforderungen bei der effizienten Unterstützung sich schnell entwickelnder Deep-Learning-Anwendungen auf unterschiedlicher Hardware.In diesem Beitrag stellen wir unsere Reihe von Sondierungsarbeiten im Bereich der Deep-Learning-Kompilierung auf der Grundlage einer einheitlichen Kachelabstraktion vor.

Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:
1. Deep Learning-Kompilierungsstapel basierend auf Kachelabstraktion

2. So optimieren Sie in Deep-Learning-Anwendungsszenarien die Effizienz des globalen Speicherzugriffs durch Kachelabstraktion

3. Wie Sie in Deep-Learning-Anwendungsszenarien Deep-Learning-Berechnungen mit geringer Genauigkeit durch Kachelabstraktion unterstützen

Veranstalter und Partner

HyperAI ist eine führende Community für künstliche Intelligenz und Hochleistungsrechnen in China.Ziel ist es, Entwicklern und Enthusiasten in der chinesischen Datenwissenschafts- und künstlichen Intelligenzbranche beim Lernen, Verstehen und Üben zu helfen, indem vielfältige Infrastrukturen bereitgestellt werden, wie etwa beschleunigte Downloads von Datensätzen, Online-Tutorial-Demonstrationen, ausführliche Papierinterpretation und Integration in den Kalender von Top-Konferenzen, und gemeinsam mit der Community die Zukunft der künstlichen Intelligenz aufzubauen. Derzeit hat die offizielle Website von SuperNeural Tausende klassischer und hochwertiger öffentlicher Datensätze und Tutorials veröffentlicht und betreibt die aktivste KI-Compiler-Community in China.

Besuchen Sie die offizielle Website:https://hyper.ai/

OpenBayes Bayesian Computing ist ein führender Anbieter von Hochleistungs-Computing-Diensten in ChinaDurch die Integration klassischer Software-Ökosysteme und Modelle des maschinellen Lernens in heterogene Chips der neuen Generation werden Industrieunternehmen und der wissenschaftlichen Forschung an Universitäten schnellere und benutzerfreundlichere Produkte für die Datenwissenschaft bereitgestellt. Seine Produkte werden von Dutzenden großer Industrieszenarien oder führenden wissenschaftlichen Forschungsinstituten übernommen.

Besuchen Sie die offizielle Website:https://openbayes.com/

Die MLC.AI-Community wurde im Juni 2022 gegründet. Chen Tianqi, der Haupterfinder von Apache TVM und ein bekannter junger Wissenschaftler auf dem Gebiet des maschinellen Lernens, leitete das Team bei der Einführung des MLC-Onlinekurses, der systematisch die Schlüsselelemente und Kernkonzepte der Kompilierung maschinellen Lernens vorstellte.

Im November 2022 wurde dank der gemeinsamen Anstrengungen der Freiwilligen der MLC.AI-Community die erste vollständige chinesische TVM-Dokumentation veröffentlicht und erfolgreich auf der offiziellen HyperAI-Website gehostet. Damit werden inländischen Entwicklern, die an der Kompilierung von maschinellem Lernen interessiert sind, die grundlegenden Einstellungen für den Zugriff auf und das Erlernen einer neuen Technologie – der Dokumentation – bereitgestellt.

MLC-Onlinekurse:https://mlc.ai/

Chinesische TVM-Dokumentation:https://tvm.hyper.ai/

Das Institut für Computertechnologie der Chinesischen Akademie der Wissenschaften (ICT) wurde 1956 gegründet und ist die erste akademische Einrichtung in China, die sich der umfassenden Forschung in Informatik und Technologie widmet.Das Institute of Computing Technology hat erfolgreich den ersten universellen digitalen elektronischen Computer meines Landes entwickelt und eine Forschungs- und Entwicklungsbasis für die Hochleistungscomputer meines Landes geschaffen. Auch der erste Allzweck-CPU-Chip meines Landes wurde hier entwickelt.

Das Institute of Computing Technology ist die Wiege der Computerindustrie meines Landes. Im Zuge der Entwicklung des Instituts für Computertechnologie wurden hier Hunderte der ersten Computertechnologie-Experten meines Landes ausgebildet, und mehr als 20 Akademiker haben hier gearbeitet oder studiert. Mit der Entwicklung von Disziplinen und Technologien wurden mehrere Forschungsinstitute wie das Xi'an-Institut für Mikroelektronik, das Rechenzentrum, das Software-Institut, das Netzwerkzentrum, das Mikroelektronik-Institut und das Institut für Informationstechnik vom Institut für Computertechnologie abgespalten und High-Tech-Unternehmen wie Lenovo, Dawn, Loongson und Cambrian gegründet.

Das Technical Committee of HPC (China Computer Federation, abgekürzt CCF TCHPC) wurde 2005 mit Zustimmung der China Computer Federation gegründet. Als professionelles Komitee der China Computer Federation ist es eine maßgebliche Organisation für akademische Forschung im Bereich Hochleistungsrechnen, die akademische Konferenzen im Bereich des Hochleistungsrechnens organisiert und Anwendungsdienste für Industrie und Universitäten bereitstellt.

Basierend auf dem Prinzip und der Mission, „eine akademische Plattform aufzubauen, den industriellen Austausch zu fördern, die Anwendungsimplementierung voranzutreiben, das Software- und Hardware-Ökosystem auszubalancieren, die Branchenentwicklung zu unterstützen und Industrie, Wissenschaft, Forschung und Anwendung zu verbinden“, engagieren wir uns für die Förderung der Forschung und Entwicklung im chinesischen Bereich des Hochleistungsrechnens und den Aufbau einer akademischen und industriellen Kooperations- und Austauschplattform für das Hochleistungsrechnen. Es spielt eine unersetzliche und wichtige Rolle und Bedeutung bei der Unterstützung der wissenschaftlichen und technologischen Entwicklung und Innovation, der Förderung des sozialen Fortschritts und der Steigerung der umfassenden nationalen Stärke und internationalen Wettbewerbsfähigkeit meines Landes.

Im Juni 2011 gründete die Chinesische Akademie der Wissenschaften offiziell die Youth Innovation Promotion Association (im Folgenden „Youth Promotion Association“), eine innovative Initiative der Chinesischen Akademie der Wissenschaften zur umfassenden Ausbildung junger wissenschaftlicher und technologischer Talente unter 35 Jahren an der Akademie. Ziel ist es, durch wirksame Organisation und Unterstützung junge Wissenschaftler und Techniker in der Akademie zu vereinen und zu festigen, ihren akademischen Horizont zu erweitern, gegenseitigen Austausch und interdisziplinäre Studien zu fördern, die Fähigkeit zur Organisation wissenschaftlicher Forschungsaktivitäten zu verbessern und eine neue Generation akademischer und technischer Führungskräfte heranzubilden.

Aktive Zeile:Scannen Sie den QR-Code, um zur Veranstaltungsregistrierung zu gelangen

Scannen Sie den QR-Code und geben Sie „2024 AI Compiler“ an, um der Eventgruppe beizutreten

Aufgrund der räumlichen Gegebenheiten dieser Veranstaltung haben wir lediglich 200 Plätze zur Teilnahme freigegeben. Um sich einen Platz zu sichern, empfehlen wir Ihnen, sich möglichst frühzeitig anzumelden.

Ich freue mich darauf, Sie alle am 6. Juli von 13:30 bis 17:40 Uhr in Peking zu treffen!