HyperAI

Veranstaltungsrückblick | Die Koordinierte Entwicklung Von Computing, Netzwerk, Software, Algorithmus Und Ökologie, 2024 Meet AI Compiler, Wurde Erfolgreich Abgeschlossen!

特色图像

Am 28. Dezember war in Shanghai der Winter bereits zu Beginn des Jahres angebrochen, doch das kalte Wetter konnte die Begeisterung aller nicht dämpfen. Der Veranstaltungsort war voller Menschen und es herrschte eine starke Kommunikationsatmosphäre. Von Branchenherausforderungen bis hin zu technologischen Innovationen, von Anwendungsszenarien bis hin zu Implementierungsergebnissen – die Dozenten und das Publikum erlebten einen tiefgreifenden „Huashan-Schwertwettbewerb“ rund um den KI-Compiler.
Folgen Sie dem öffentlichen WeChat-Konto „HyperAI Super Neural Network“ und antworten Sie im Hintergrund auf das Schlüsselwort „1228 AI Compiler“, um die vollständige PPT des Gastes zu erhalten.

Dieses Meetup war in zwei Sitzungen unterteilt. In der technischen Austauschsitzung demonstrierten vier erfahrene Compiler-Experten von Horizon Robotics, Zhiyuan, ByteDance und Lingchuan Technology die neuesten Forschungsergebnisse ihrer jeweiligen Teams. Sie kombinierten außerdem umfangreiche praktische Anwendungsfälle, um den Anwendungsprozess und die Auswirkungen dieser Ergebnisse bei der Lösung praktischer Probleme auf leicht verständliche Weise zu erklären.
Vom innovativen Design der Compilerarchitektur über Strategien zur Leistungsoptimierung in bestimmten Szenarien bis hin zu integrierten Anwendungen mit anderen Technologien deckten die Vorträge der Dozenten viele wichtige Aspekte des Compilerbereichs ab und vermittelten den Teilnehmern tiefgreifende Einblicke in die Branche und wertvolle Implementierungserfahrungen.

In der Roundtable-Sitzung sprach Feng Siyuan, ein Ph.D. von der Shanghai Jiao Tong University und PMC von Apache TVM, fungierte als Moderator. Gemeinsam mit vier weiteren Vortragenden widmete er sich dem Kernthema „Koordinierte Entwicklung der Computing-Netzwerk-Software-Algorithmen-Ökologie“ und leitete einen umfassenden und mehrdimensionalen Meinungsaustausch ein. Auch das Publikum beteiligte sich aktiv an der Interaktion, äußerte seine Erkenntnisse und tauschte sich mit den Dozenten aus.

Überprüfung der Veranstaltungsinhalte

Nachfolgend finden Sie eine kurze Einführung in die Inhalte des Sharings sowie einen Videorückblick auf die Veranstaltung.

Thema teilen:Praxis der Kompilierung und Bereitstellungsoptimierung von Transformer-Modellen

Inhalt:In den letzten Jahren hat das Transformer-Modell nicht nur im LLM-Bereich bemerkenswerte Ergebnisse erzielt, sondern wird auch häufig im Bereich der Computervision eingesetzt. In Szenarien des autonomen Fahrens ist die Kompilierung und Bereitstellungsoptimierung des Transformer-Modells ein komplexer Prozess. Das End-to-End-Modell und VLM stellen große Herausforderungen an die Kompilierungsoptimierung und Bereitstellung auf der Endseite. In diesem Beitrag werden hauptsächlich einige Vorgehensweisen und Erfahrungen von Horizon in dieser Hinsicht vorgestellt.

Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:

1. Herausforderungen bei der Kompilierung, Optimierung und Bereitstellung von Visual Transformer-Modellen

2. Horizons Erkundung und Praxis in der Optimierung der Transformer-Modellkompilierung

Video teilen:

https://www.bilibili.com/video/BV1wN6pYgEyi/?spm_id_from=333.999.0.0

Thema teilen:FlagGems: F&E-Fortschritt und Erforschung ökologischer Anwendungen

Inhalt:Seit der Veröffentlichung der Version 2.0 hat FlagGems in enger Zusammenarbeit des Zhiyuan-Teams, Partnerherstellern und der Triton China-Community bedeutende Durchbrüche in der Forschung und Entwicklung hinsichtlich der Anzahl der Operatorunterstützungen, der Rechenleistung, der Codegenerierung und der Laufzeitmechanismen erzielt. Gleichzeitig verbindet FlagGems die Upstream- und Downstream-Bereiche des Feldes und hat innovative Untersuchungen in den Bereichen Training und Schlussfolgerungsanpassung großer Modelle, Integration mehrerer Backend-Chips und anderen Aspekten durchgeführt, wodurch die Anwendungsszenarien der Operatorbibliothek im diversifizierten Ökosystem weiter erweitert wurden.

Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:

1. Die neuesten Forschungs- und Entwicklungserfolge sowie technologischen Fortschritte von FlagGems

2. Innovative Praktiken und Erfahrungen bei der Anpassung von Operatorbibliotheken an große Modelle

3. Technische Lösungen und Anwendungseffekte der Multi-Backend-Chip-Integration

4. Fortschritt der Triton China Community und des Aufbaus eines diversifizierten Ökosystems

Video teilen:

https://www.bilibili.com/video/BV1Le6JYXEuR/?spm_id_from=333.999.0.0

Thema teilen:KI-Compiler-Design aus der Perspektive der Berechnungs-, Speicherzugriffs- und Kommunikationsoptimierung

Inhalt:Die Kompilierungsoptimierung für KI-Chips steht aus drei Perspektiven vor Optimierungsherausforderungen: Berechnung, Speicherzugriff und Kommunikation. In diesem Bericht werden drei Aspekte der Erfahrung im Bereich KI-Compiler-Design und -Optimierung erläutert. Aus Computersicht teilen wir Optimierungen für benutzerdefinierte Beschleunigungseinheiten. Aus der Perspektive des Speicherzugriffs teilen wir die Modellierung und Optimierung des Speicherzugriffs für KI-Chips. Aus Kommunikationssicht teilen wir Erfahrungen und Fortschritte bei der Konvergenz von Computertechnik und Kommunikation.

Sehen Sie sich diese Sharing-Sitzung an und erfahren Sie:

1. Eine globale Perspektive auf die KI-Compileroptimierung

2. Erlernen Sie die Erfahrung und Fähigkeiten, um die Rechenleistung von KI-Chips voll auszunutzen

3. Verstehen Sie die zukünftige Entwicklungsrichtung verteilter KI-Compiler

Video teilen:

https://www.bilibili.com/video/BV1vX6EYDEkm/?spm_id_from=333.999.0.0

2025 Lernen Sie AI Compiler kennen · Bleiben Sie dran

In den Jahren 2023–2024 haben wir erfolgreich sechs Offline-Treffen in Peking, Shanghai und Shenzhen abgehalten, bei denen Tausende erfahrene Praktiker und Enthusiasten zusammenkamen und nach und nach eine reichhaltige Gemeinschaftsökologie aufgebaut wurde. Im Jahr 2025 werden wir die AI Compiler City Map weiterentwickeln und alle Unternehmen und Community-Partner herzlich einladen, sich in verschiedenen Formen an der gemeinsamen Gestaltung zu beteiligen, sei es durch die Empfehlung von Dozenten oder die Bereitstellung von Veranstaltungsorten und Kaffeepausen. Wir heißen sie herzlich willkommen.

Lassen Sie uns gemeinsam daran arbeiten, die aktivste KI-Compiler-Community in China aufzubauen! Zum Schluss möchte ich noch ein Gruppenfoto von der Szene teilen❤️

Veranstalter und Partner

HyperAI ist eine führende Community für künstliche Intelligenz und Hochleistungsrechnen in China.Ziel ist es, Entwicklern und Enthusiasten in der chinesischen Datenwissenschafts- und künstlichen Intelligenzbranche beim Lernen, Verstehen und Üben zu helfen, indem vielfältige Infrastrukturen bereitgestellt werden, wie etwa beschleunigte Downloads von Datensätzen, Online-Tutorial-Demonstrationen, ausführliche Papierinterpretation und Integration in den Kalender von Top-Konferenzen, und gemeinsam mit der Community die Zukunft der künstlichen Intelligenz aufzubauen. Derzeit hat die offizielle Website von SuperNeural Tausende klassischer und hochwertiger öffentlicher Datensätze und Tutorials veröffentlicht und betreibt die aktivste KI-Compiler-Community in China.

Besuchen Sie die offizielle Website:https://hyper.ai/

OpenBayes Bayesian Computing ist ein führender Anbieter von Hochleistungs-Computing-Diensten in ChinaDurch die Integration klassischer Software-Ökosysteme und Modelle des maschinellen Lernens in heterogene Chips der neuen Generation werden Industrieunternehmen und der wissenschaftlichen Forschung an Universitäten schnellere und benutzerfreundlichere Produkte für die Datenwissenschaft bereitgestellt. Seine Produkte werden von Dutzenden großer Industrieszenarien oder führenden wissenschaftlichen Forschungsinstituten übernommen.

Besuchen Sie die offizielle Website:https://openbayes.com/

Die MLC.AI-Community wurde im Juni 2022 gegründet. Chen Tianqi, der Haupterfinder von Apache TVM und ein bekannter junger Wissenschaftler auf dem Gebiet des maschinellen Lernens, leitete das Team bei der Einführung des MLC-Onlinekurses, der systematisch die Schlüsselelemente und Kernkonzepte der Kompilierung maschinellen Lernens vorstellte.

Im November 2022 wurde dank der gemeinsamen Anstrengungen der Freiwilligen der MLC.AI-Community die erste vollständige chinesische TVM-Dokumentation veröffentlicht und erfolgreich auf der offiziellen HyperAI-Website gehostet. Damit werden inländischen Entwicklern, die an der Kompilierung von maschinellem Lernen interessiert sind, die grundlegenden Einstellungen für den Zugriff auf und das Erlernen einer neuen Technologie – der Dokumentation – bereitgestellt.

MLC-Onlinekurse:https://mlc.ai/

Chinesische TVM-Dokumentation:https://tvm.hyper.ai/

Das Shanghai Wujiaochang Innovation and Entrepreneurship College ist eine gemeinnützige Bildungs- und Dienstleistungsorganisation, die gemeinsam von der Bezirksregierung Yangpu, renommierten Universitäten, führenden Unternehmen der Branche und unternehmerischen Dienstleistungsinstitutionen ins Leben gerufen wurde. Mit der Mission, „tiefe Verbindungen zu schaffen, um Innovation und Unternehmertum erfolgreicher zu machen“, vernetzen wir Unternehmer und Wegbereiter, verbessern die Effizienz der Ressourcenzuweisung für Innovation und Unternehmertum und fördern die Schöpfung.

Im November 2022 wird die Wujiaochang Entrepreneurship Academy den öffentlichen Raum der Akademie offiziell eröffnen und 800 Quadratmeter Fläche für Unternehmertum und Innovation zur Verfügung stellen. Darüber hinaus wird gemeinsam mit Partnern wie dem CUHK Shanghai Center und der Shui On Group die Wohltätigkeitsmarke für Unternehmertum und Innovation „Academy Coffee“ eingeführt und KOLs, Unternehmen und soziale Organisationen, die sich über Wohltätigkeitsdienste für Unternehmertum und Innovation einig sind, eingeladen, „Wohltätigkeitspartner“ zu werden, um gemeinsam verschiedene Formen der Zusammenkunft von Unternehmern zu entwickeln. Bisher hat „Academy Coffee“ über 140 Aktivitäten unterschiedlicher Art zu den Themen Unternehmertum und Innovation durchgeführt und mehr als 3.000 Teilnehmer zusammengebracht.

Veranstaltungsbetreuung

Holen Sie sich die PPT:Folgen Sie dem öffentlichen WeChat-Konto „HyperAI Super Neural Network“, antworten Sie im Hintergrund auf das Schlüsselwort „1228 AI Compiler“ und erhalten Sie die vollständige PPT des Gastes.

Scannen Sie den QR-Code und geben Sie „AI Compiler“ ein, um der Eventgruppe beizutreten