Wir Sehen Uns Nächsten Samstag in Shanghai! Der AI Compiler Technology Salon Bringt Große Namen Wie Zhiyuan, ByteDance Und Lingchuan Technology Zusammen

Im Jahr 2023 veranstaltete HyperAI vier Offline-Meet-TVM-Treffen in Peking, Shanghai und Shenzhen.Es hat mehr als 1.000 erfahrene Praktiker und Enthusiasten versammelt und nach und nach eine reichhaltige Gemeinschaftsökologie aufgebaut. Im Jahr 2024 konzentrierte sich HyperAI auf den Bereich der KI-Compiler und bot weiterhin eine offene Kommunikationsplattform für Brancheninsider. Im Juli dieses Jahres fand der 5. Meet AI Compiler Technology Salon statt. Jetzt, da das Jahr 2024 zu Ende geht, geht der harte Wettbewerb im Bereich der großen Modelle weiter. Welche neuen Durchbrüche und neuen Anwendungen werden KI-Compiler haben?
Am 28. Dezember veranstaltet HyperAI den 6. Meet AI Compiler Technology Salon in Wujiaochang, Shanghai. Die Veranstaltung wird in zwei Teile gegliedert sein: Technologieaustausch und Diskussionsrunde.
Zunächst einmal ist es uns eine Ehre, vier hochrangige Experten von Horizon Robotics, der Beijing Academy of Artificial Intelligence, ByteDance und Lingchuan Technology einzuladen, ihre Anwendungsfälle und Branchenbeobachtungen mit uns zu teilen. Darüber hinaus hat Feng Siyuan, ein Ph.D. von der Shanghai Jiao Tong University und PMC von Apache TVM, wird als Moderator der Roundtable-Sitzung fungieren und mit den Gästen Ideen aus einer professionellen technischen Perspektive austauschen.
Außerdem haben wir für alle erlesene Geschenke und Teepausen vorbereitet. Bitte melden Sie sich für die Veranstaltung an, folgen Sie dem öffentlichen Konto „HyperAI Super Neuro“ und antworten Sie im Hintergrund mit „1228 Shanghai“, um an der Verlosung teilzunehmen.Die Preise müssen am 28. Dezember offline am Veranstaltungsort abgeholt werden. Kommen Sie vorbei und machen Sie mit~
Veranstaltungsdetails
Zeit: 28. Dezember (Samstag) 13:30-17:45
Ort: Hörsaal 2. Stock, Shanghai Wujiaochang Innovation and Entrepreneurship College (Nr. 322, Daxue Road, Bezirk Yangpu)
Personenzahl: 200 (Die Plätze vor Ort sind begrenzt, bitte melden Sie sich so früh wie möglich an)
Registrierung: Klicken Sie auf den Link, um sich zu registrieren
Agenda:

Gäste und Tagesordnung
Sitzung 1: Gastredner

Thema teilen:Praxis der Kompilierung und Bereitstellungsoptimierung von Transformer-Modellen
Inhaltseinführung: In den letzten Jahren hat das Transformer-Modell nicht nur im LLM-Bereich bemerkenswerte Ergebnisse erzielt, sondern wird auch häufig im Bereich der Computervision eingesetzt.In Szenarien des autonomen Fahrens ist die Kompilierung und Bereitstellungsoptimierung des Transformer-Modells ein komplexer Prozess. Das End-to-End-Modell und VLM stellen große Herausforderungen an die Kompilierungsoptimierung und Bereitstellung auf der Endseite. In diesem Beitrag werden hauptsächlich einige Vorgehensweisen und Erfahrungen von Horizon in dieser Hinsicht vorgestellt.
Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:
1. Herausforderungen bei der Kompilierung, Optimierung und Bereitstellung von Visual Transformer-Modellen
2. Horizons Erkundung und Praxis in der Optimierung der Transformer-Modellkompilierung

Thema teilen:FlagGems: F&E-Fortschritt und Erforschung ökologischer Anwendungen
Inhalt:Seit der Veröffentlichung der Version 2.0, in enger Zusammenarbeit des Zhiyuan-Teams, Partnerherstellern und der Triton China-Community,FlagGems hat in der Forschung und Entwicklung bedeutende Durchbrüche hinsichtlich der Anzahl unterstützter Operatoren, der Rechenleistung, der Codegenerierung und der Laufzeitmechanismen erzielt.Gleichzeitig verbindet FlagGems die Upstream- und Downstream-Bereiche des Feldes und hat innovative Untersuchungen in den Bereichen Training und Schlussfolgerungsanpassung großer Modelle, Integration mehrerer Backend-Chips und anderen Aspekten durchgeführt, wodurch die Anwendungsszenarien der Operatorbibliothek im diversifizierten Ökosystem weiter erweitert wurden.
Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:
1. Die neuesten Forschungs- und Entwicklungserfolge sowie technologischen Fortschritte von FlagGems
2. Innovative Praktiken und Erfahrungen bei der Anpassung von Operatorbibliotheken an große Modelle
3. Technische Lösungen und Anwendungseffekte der Multi-Backend-Chip-Integration
4. Fortschritt der Triton China Community und des Aufbaus eines diversifizierten Ökosystems

Thema teilen:KI-Compiler-Design aus der Perspektive der Berechnungs-, Speicherzugriffs- und Kommunikationsoptimierung
Inhalt:Die Kompilierungsoptimierung für KI-Chips steht aus drei Perspektiven vor Optimierungsherausforderungen: Berechnung, Speicherzugriff und Kommunikation. In diesem Bericht werden drei Aspekte der Erfahrung im Bereich KI-Compiler-Design und -Optimierung erläutert.Aus Computersicht teilen wir Optimierungen für benutzerdefinierte Beschleunigungseinheiten. Aus der Perspektive des Speicherzugriffs teilen wir die Modellierung und Optimierung des Speicherzugriffs für KI-Chips. Aus Kommunikationssicht teilen wir Erfahrungen und Fortschritte bei der Konvergenz von Computertechnik und Kommunikation.
Durch das Ansehen dieser Sharing-Sitzung erfahren Sie:
1. Eine globale Perspektive auf die KI-Compileroptimierung
2. Erlernen Sie die Erfahrung und Fähigkeiten, um die Rechenleistung von KI-Chips voll auszunutzen
3. Verstehen Sie die zukünftige Entwicklungsrichtung verteilter KI-Compiler

Thema teilen:Optimierung der Kompilierung großer Modelle und Beschleunigung der Argumentation basierend auf der Multi-Core-Architektur NPU
Inhaltseinführung: Dieser Austausch konzentriert sich auf die praktische Erforschung der NPU mit Multi-Core-Architektur bei der Optimierung der Kompilierung großer Modelle und der Beschleunigung des Schlussfolgerungsprozesses.Durch die Analyse der Recheneigenschaften großer Modelle wie Transformer schlägt dieses Dokument eine Matrixoptimierung auf der Grundlage einer Kachelstrategie, einen Planungsmechanismus für Daten- und Modellparallelität sowie eine effiziente Argumentationsmethode vor, die Operatoren und Pipeline-Design integriert. In Kombination mit den parallelen Eigenschaften der Multi-Core-Architektur werden die Operatorzerlegung und die Speicherverwaltung optimiert, wodurch der Inferenzdurchsatz und die Ressourcennutzung erheblich verbessert werden.
Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:
1. Architektur des Cloud-basierten Inferenzchips für große Modelle
2. Optimierungsstrategie des Attention-Superoperators unter der Transformer-Architektur
Sitzung 2: Diskussionsrunde
Themen des Runden Tisches:Gemeinsame Entwicklung von Chips, Netzwerken, Software, Algorithmen und Ökosystemen

Veranstalter und Partner

HyperAI ist eine führende Community für künstliche Intelligenz und Hochleistungsrechnen in China.Ziel ist es, Entwicklern und Enthusiasten in der chinesischen Datenwissenschafts- und künstlichen Intelligenzbranche beim Lernen, Verstehen und Üben zu helfen, indem vielfältige Infrastrukturen bereitgestellt werden, wie etwa beschleunigte Downloads von Datensätzen, Online-Tutorial-Demonstrationen, ausführliche Papierinterpretation und Integration in den Kalender von Top-Konferenzen, und gemeinsam mit der Community die Zukunft der künstlichen Intelligenz aufzubauen. Derzeit hat die offizielle Website von SuperNeural Tausende klassischer und hochwertiger öffentlicher Datensätze und Tutorials veröffentlicht und betreibt die aktivste KI-Compiler-Community in China.
Besuchen Sie die offizielle Website:https://hyper.ai/

OpenBayes Bayesian Computing ist ein führender Anbieter von Hochleistungs-Computing-Diensten in ChinaDurch die Integration klassischer Software-Ökosysteme und Modelle des maschinellen Lernens in heterogene Chips der neuen Generation werden Industrieunternehmen und der wissenschaftlichen Forschung an Universitäten schnellere und benutzerfreundlichere Produkte für die Datenwissenschaft bereitgestellt. Seine Produkte werden von Dutzenden großer Industrieszenarien oder führenden wissenschaftlichen Forschungsinstituten übernommen.
Besuchen Sie die offizielle Website:https://openbayes.com/

Die MLC.AI-Community wurde im Juni 2022 gegründet. Unter der Leitung von Chen Tianqi, dem Haupterfinder von Apache TVM und einem bekannten jungen Wissenschaftler auf dem Gebiet des maschinellen Lernens, startete das Team den MLC-Onlinekurs.Die Schlüsselelemente und Kernkonzepte der maschinellen Lernkompilierung werden systematisch vorgestellt.
Im November 2022 wurde dank der gemeinsamen Anstrengungen der Freiwilligen der MLC.AI-Community die erste vollständige chinesische TVM-Dokumentation veröffentlicht und erfolgreich auf der offiziellen HyperAI-Website gehostet. Damit werden inländischen Entwicklern, die an der Kompilierung von maschinellem Lernen interessiert sind, die grundlegenden Einstellungen für den Zugriff auf und das Erlernen einer neuen Technologie – der Dokumentation – bereitgestellt.
MLC-Onlinekurse:https://mlc.ai/
Chinesische TVM-Dokumentation:https://tvm.hyper.ai/

Das Shanghai Wujiaochang Innovation and Entrepreneurship College ist eine gemeinnützige Bildungs- und Dienstleistungsorganisation, die gemeinsam von der Bezirksregierung Yangpu, renommierten Universitäten, führenden Unternehmen der Branche und unternehmerischen Dienstleistungsinstitutionen ins Leben gerufen wurde.Mit der Mission, „tiefe Verbindungen zu schaffen, um Innovation und Unternehmertum erfolgreicher zu machen“, vernetzen wir Unternehmer und Wegbereiter, verbessern die Effizienz der Ressourcenzuweisung für Innovation und Unternehmertum und fördern die Schöpfung.
Im November 2022 wird die Wujiaochang Entrepreneurship Academy den öffentlichen Raum der Akademie offiziell eröffnen und der Unternehmerschaft 800 Quadratmeter Fläche zur Verfügung stellen. Darüber hinaus wird gemeinsam mit Partnern wie dem CUHK Shanghai Center und der Shui On Group die unternehmerische Wohltätigkeitsmarke „Academy Coffee“ eingeführt und KOLs, Unternehmen und soziale Organisationen, die sich über unternehmerische Wohltätigkeitsdienste einig sind, eingeladen, „Wohltätigkeitspartner“ zu werden, um gemeinsam verschiedene Formen der Zusammenkunft von Unternehmern zu entwickeln.Bisher wurden im Rahmen von „College Coffee“ über 140 duale Aktivitäten in unterschiedlichen Formen zu den Themen Innovation und Unternehmertum durchgeführt, bei denen über 3.000 Teilnehmer zusammenkamen.
Veranstaltungsbetreuung
