HyperAI

Aktivitätsüberprüfung (Teil 2) | Analyse Der Trends Bei Maschinellen Lernsystemen, Zusammenfassung Von Expertenzitaten

vor einem Jahr
Ruhmeshalle
Yang Bai
特色图像

Autor: Sanyang, Li Baozhu, Li Weidong, Yudi, xixi

Herausgeber: Li Baozhu

Im Zeitalter großer Modelle unterliegen maschinelle Lernsysteme beispiellosen Veränderungen. Durch die schnelle Vergrößerung der Modelle konnten wir eine enorme Verbesserung der KI-Fähigkeiten beobachten. Diese Verbesserung hat jedoch nicht nur in verschiedenen Bereichen neue Möglichkeiten eröffnet, sondern auch zu einer Reihe neuer technischer Herausforderungen und praktischer Schwierigkeiten geführt.

Am 16. Dezember fand die Jahresabschlussparty 2023 Meet TVM · erfolgreich in der Shanghai Entrepreneurs Public Training Base statt. In diesem MeetupApache TVM PMC und Ph.D. der Shanghai Jiao Tong University. Feng Siyuan fungierte als Gastgeber und führte mit vier Gästen einen umfassenden und vielseitigen Austausch und eine Diskussion zum Thema „Maschinelle Lernsysteme im Zeitalter großer Modelle“.

Die vier Gäste dieser Diskussionsrunde sind:

* Wang Chenhan, Gründer und CEO von OpenBayes Bayesian Computing

* Wu Zhao, Leiter der autonomen Fahr-KI-Engine von NIO

* Jin Lesheng, Machine Learning System Engineer bei OctoML

* Zhu Hongyu, Systemingenieur für maschinelles Lernen bei ByteDance

Von links nach rechts: Feng Siyuan, Wang Chenhan, Wu Zhao, Jin Lesheng, Zhu Hongyu

Wir haben dieses Gespräch wie folgt zusammengefasst, ohne die ursprüngliche Absicht zu verletzen. Kommen Sie und lauschen Sie den wunderbaren Einsichten der Gäste.

Maschinelle Lernsysteme im Zeitalter großer Modelle

Phase 1: Diskussionsrede

Große Modelle sind derzeit in allen Bereichen ein absolutes Topthema, sei es in der Cloud, auf der Endseite oder im Fahrzeug (Tesla FSD V12). Alle Gäste werden bei der tatsächlichen Arbeit oder in Diskussionen auf Probleme der Systemoptimierung beim Training und Einsatz großer Modelle stoßen. Bitte stellen Sie abwechselnd die wichtigsten Herausforderungen und Lösungen vor, auf die Sie gestoßen sind. 

Wang Chenhan:Die Bayes-Informatik von OpenBayes begann im Juni dieses Jahres mit dem Training einzelner modaler Modelle. SuperCLUE  Es belegt den fünften Platz in der Liste der inländischen großen Modell-Startups.Aus der Perspektive der Trainingstechnologie für große Modelle ist die Netzwerklatenz das Hauptproblem, mit dem wir derzeit konfrontiert sind. Grundsätzlich kann kein Chip auf seinem eigenen Cluster mit voller Kapazität laufen.

entsprechend OpenAI  Laut der „Skalierung von Kubernetes auf 2500 Knoten“ auf der offiziellen Website sollte die Spitzenauslastung der GPU beim Training von GPT-3 18% nicht überschreiten, und die durchschnittliche Auslastung liegt bei etwa 12–15%. Dies bedeutet, dass wenn Sie 100 Millionen für den Aufbau eines Clusters ausgeben, nur 12 bis 15 Millionen der Investition in diesen Cluster nützlich sind.Aus finanzieller Sicht ist die Maximierung der Datenparallelität, des Pipeline-Betriebs und der Vektorparallelität tatsächlich die größte Herausforderung beim Training.

Die Herausforderungen bei der Bereitstellung/Inferenz in China sind hauptsächlich komplexe technische Probleme. Wenn die Bandbreite des Videospeichers nicht sehr gut ist, ist die PCIE-Optimierung tatsächlich ziemlich problematisch. OpenBayes Bayesian Computing und viele Upstream- und Downstream-Hersteller verwenden vLLM, was viel Engineering-Arbeit spart und den Denkaufwand erheblich reduziert.

Jinlesheng:Die Herausforderungen, denen wir begegnet sind, lassen sich in zwei Hauptpunkte unterteilen:

1. Da TVM und MLC-LLM mit einer Geschwindigkeit von 7 B laufen, kann eine Karte manchmal kein größeres Modell wie beispielsweise 70 B speichern.Im letzten Quartal haben wir versucht, dieses Problem mithilfe der Tensorparallelität zu lösen. Diese Lösung ist jetzt Open Source. Wenn Sie Interesse haben, können Sie es gerne ausprobieren.

2. Es gibt eine weitere Anforderung.Wir unterstützen derzeit nur Batchgröße = 1.Es ist eher für den individuellen Gebrauch geeignet, aber wenn Sie an ein Serving denken, werden Sie feststellen, dass es vLLM, das wir derzeit ebenfalls entwickeln, weit unterlegen ist.

Feng Siyuan:Ich möchte auch hinzufügen, dass die Hauptrichtung der Argumentation noch immer unklar ist. Obwohl Transformer die gängige Architektur für große Modelle ist, gibt es insgesamt noch viele Änderungen bei den Methoden. In diesem Fall ist immer noch die Frage, ob Transformer große Modelle vereinheitlichen kann.Daher können in Szenarien mit Unsicherheiten in den oberen und unteren Schichten Anpassbarkeit und agile Entwicklung wichtiger sein als die traditionelle End-to-End-Kompilierung von TVM.Meiner Meinung nach besteht beim Denken und Trainieren großer Modelle noch viel Raum für Verbesserungen.

Phase 2: Gezielte Befragung

Mit der Verschärfung des US-Verbots wurden die Beschränkungen vom ursprünglichen Verbot der Trainingskarten auf Karten zur Inferenz großer Modelle ausgeweitet. Was ist kurzfristig die kostengünstigste Lösung für die Cloud-basierte Argumentation großer Modelle? (Spielkarten und Grafikkarten sind erlaubt), inländische NPU 、Wie lange dauert es, bis die GPU die Lücke im Inferenzbereich schließt?

Wang Chenhan:Da die Trainings- und Inferenzmodelle unterschiedlich groß sind und auch die Nutzungsszenarien und Geschäftslasten unterschiedlich sind, ist es schwierig, eine einheitliche Antwort zu finden.

Aus Sicht der Edge-Auswahl ist der heimische Chip Rockchip 3588 eine gute Option. Es bietet eine gute Leistung und Kosteneffizienz, verfügt über einen relativ universellen Technologie-Stack und ist relativ günstig und leicht zu beschaffen.Darüber hinaus entspricht Nvidia Orin einer kastrierten Version der Ampere-GPU.Wenn die Budgetspezifikation von q4f 16 eingehalten wird, steht Orin nicht unter großem Druck, 7B-, 14B- oder sogar 34B-Modelle vom Videospeicher bis zur Inferenz auszuführen.

Für die Cloud-basierte Auswahl hat NVIDIA anschließend drei Chips bekannt gegeben: H20, L20 und L2. Laut offiziellen Angaben von NVIDIA liegt das tatsächliche Logikniveau großer Modelle wahrscheinlich bei 70%-80% des L40. Obwohl A6000 später auf die Verbotsliste gesetzt wurde, ist der Bestand relativ groß. Der Vorteil des A6000 besteht darin, dass er über einen großen Videospeicher von 48 GB mit NVLink verfügt. Wenn Sie ein Paar davon installieren, erhalten Sie einen 130% A100.

Aus unseren Kontakten mit inländischen Chipherstellern wissen wir, dass tatsächlich jeder versucht, das einzelne Attention Backbone so weit wie möglich zu optimieren.

Phase 2: Gezielte Befragung


Wie lange wird es Ihrer Meinung nach im Bereich der Inferenzchips dauern, bis ein Unternehmen wirklich Erfolge auf der Inferenzseite erzielt und Nvidia Marktanteile abnehmen kann?

Wang Chenhan:Ich denke, dass inländische Chiphersteller innerhalb von 18 Monaten mehr als 20% von Nvidias Marktanteil übernehmen können.Die Hauptgrundlage für diese Einschätzung besteht darin, dass die günstige Politik meines Landes und die anhaltenden Sanktionen der Vereinigten Staaten den Anstieg der Lokalisierungsrate gefördert haben. Darüber hinaus gibt es meines Wissens bereits inländische Hersteller, deren Kompatibilität mit NVIDIA CUDA-Anweisungen und APIs 92% oder höher erreichen kann. Daher bin ich bei meiner Vorhersage des 18-Monats-Zyklus weiterhin sehr zuversichtlich.


Phase 2: Gezielte Befragung

Warum hat sich NIO für TVM entschieden? Welche Vorteile bietet TVM im Bereich des autonomen Fahrens?

Wu Zhao:Zunächst einmal liegt es definitiv daran, dass ich einen technischen TVM-Hintergrund habe, daher werde ich beim Aufbau eines Teams TVM den Vorzug geben. Zweitens,In konkreten Projekten ist ein wichtiges Kriterium für die Sinnhaftigkeit einer Technologie, ob ihre Architektur den Geschäftsanforderungen gerecht wird.

Autonomes Fahren ist ein sehr komplexes Anwendungsszenario und die Anforderungen an die Architektur sind höher. Bei der Wahl der technischen Route ist eine umfassende Betrachtung der Projektanforderungen und Projektzyklen erforderlich.Für das autonome Fahrgeschäft von NIO ist die Auslieferung des ersten Modells ET7 für März 2022 geplant. Zu diesem Zeitpunkt hatte unser Team nur ein halbes Jahr Zeit, sich mit dem komplexen Modell des autonomen Fahrens zu befassen, daher mussten wir uns für eine End-to-End-Lösung entscheiden. Zu dieser Zeit verwendeten viele freundliche Konkurrenten TensorRT. Das Problem mit TensorRT besteht darin, dass die Modelle immer komplexer und die Anforderungen immer seltsamer werden, was auf lange Sicht nicht geeignet ist.

Das erste Problem, das im Bereich des autonomen Fahrens berücksichtigt werden muss, ist die Frage, wie Leistung, Genauigkeit und andere Messgrößen auf der Fahrzeugseite vollständig kontrolliert werden können.Da beim autonomen Fahren viele spezielle Situationen gelöst werden müssen, trainiert das Algorithmenteam die Modelle meist in der Cloud und stellt sie dann im Fahrzeug bereit. Wenn Sie in diesem Prozess die TensorRT-Blackbox verwenden, können Sie deren Quantisierungsalgorithmus nicht vollständig beherrschen, und die Quantisierung ist für uns sehr wichtig.

Darüber hinaus eignet sich MLIR sehr gut für herkömmliche Compiler, erfordert jedoch in den frühen Phasen relativ viel Zeit. Da wir damals einem relativ engen Zeitlimit unterlagen und uns für eine End-to-End-Lösung entscheiden mussten, haben wir MLIR nach der Evaluierung aufgegeben.

endlich,Für das autonome Fahren sind die Stabilität der gesamten Bereitstellung und eine geringe CPU-Auslastung entscheidend.Daher müssen wir eine Lösung wählen, die vollständig gesteuert werden kann und die CPU-Auslastung reduziert, was mit einer Blackbox nicht möglich ist.

Zusammenfassend:Der komplett weiße TVM war damals für uns die beste Option.

Phase 3: Diskussionsrede

Derzeit sind sowohl Großmodelle als auch Modelle für autonomes Fahren aneinander gebunden. In diesem Fall werden der Algorithmus, das System und sogar der Chip des Modells eine gemeinsame Entwicklung erfahren. Lehrer können ihre Ansichten hierzu teilen.

Wang Chenhan:Ich denke, dass DSA und GPGPU wahrscheinlich voneinander abhängig sind und keiner ohne den anderen auskommt. Die Architektur von Chips wird in Zukunft nicht nur die Form der Aufmerksamkeit haben.  In letzter Zeit sind in der Community viele neue Technologien und Produkte entstanden, wie beispielsweise Mistral 7B MoE, Microsofts RetNet , der Aufstieg der Multimodalität usw., die Vereinheitlichung der gesamten Architektur durch große Sprachmodelle könnte von März bis Oktober dieses Jahres nur eine kurze Illusion sein. Es ist sehr wahrscheinlich, dass die zukünftige Architektur der KI und das von NVIDIA definierte Paradigma noch einige Zeit fortbestehen müssen.Allerdings wird NVIDIA seinen Vorsprung in dieser Hinsicht möglicherweise nicht immer behaupten können. Es besteht kein Zweifel, dass Attention den Abstand zwischen anderen Verfolgern und NVIDIA verringern wird.Zum Beispiel AMD MI300X und andere inländische Chips, deren Namen nicht gerne öffentlich genannt werden.

Von mehr Trends,Die Entwicklung einer Architektur mit Schwerpunkt auf GPGPU wird auch weiterhin ein langfristiger Trend sein.

Wu Zhao:In der Praxis sind kleine Änderungen möglich, große Änderungen jedoch schwierig. Mit anderen Worten: Unter der Prämisse, grundsätzlich den Geschäftsanforderungen gerecht zu werden, können Feinabstimmungen und Anpassungen an der Hardware vorgenommen werden.Wenn Transformer jedoch zum Erreichen guter Ergebnisse erforderlich ist, bestimmte Hardware Transformer jedoch nur sehr unzureichend unterstützt, werden wir aus geschäftlicher Sicht keine Bereitstellung auf dieser Hardware durchführen. Dies ist der aktuelle Stand der Branche.

Was Herausforderungen angeht, denke ich, dass es auf jeden Fall Herausforderungen geben wird, einschließlich der oben genannten. R  Oder RNN, es handelt sich nicht mehr um die quadratische Komplexität der Aufmerksamkeit, sondern um eine lineare Komplexität.Auch hier gibt es ein Problem. Dies allein reicht nicht aus, um die Herausforderung zu meistern, da wir eine gewisse Komprimierung oder andere Mittel verwenden können, um die Anforderungen an die Effekte in begrenzten Szenarien zu erfüllen. In diesem Fall sind die Ökologie und die Auswirkungen von RWKV nicht so gut wie die von Transformer, und Benutzer haben keinen Grund, Transformer aufzugeben und RWKV zu übernehmen.

Meiner Meinung nachAlgorithmen sind die wichtigste treibende Kraft.Wenn der Algorithmuseffekt erreicht werden kann, können wir unter Berücksichtigung des Kosten-Leistungs-Verhältnisses andere Systemchips in Betracht ziehen.

Jinlesheng:Meine Idee ist der von Professor Wu sehr ähnlich. Ich habe bereits zuvor im Bereich maschinelles Lernen gearbeitet und einige Artikel zu KI veröffentlicht. Ich habe festgestellt, dass Leute, die ML betreiben, selten auf Latenz oder systembezogene Indikatoren achten. Sie sind mehr daran interessiert, die Genauigkeit zu verbessern und ob sie SOTA erreichen können.Ich denke also, wenn ein neues Modell auf den Markt kommt, dessen Leistung Transformer völlig übertrifft, wird es sich definitiv durchsetzen und alle Hardwarehersteller und Software-Stacks werden sich daran anpassen. Daher glaube ich, dass der Algorithmus weiterhin dominieren wird.

Wang Chenhan:Wir haben zuvor geschätzt, dass die Trainingskosten von RWKV auf etwa 1/3 reduziert werden können, wenn der Parameterumfang groß ist.Beim Erstellen eines groß angelegten maschinellen Lernmodells ist beispielsweise jeder auf Kommunikationstools und Kommunikation angewiesen. Nach der Reduzierung vom exponentiellen auf das lineare Niveau sinken die Kommunikationsanforderungen.

Obwohl der Aufmerksamkeitsmechanismus bereits 2017 die Aufmerksamkeit der Menschen auf sich zog, stellten wir durch das Durchsuchen und Analysieren globaler Artikel zum Thema maschinelles Lernen fest, dass die Anzahl der allein im Jahr 2022 veröffentlichten Artikel die Gesamtzahl der Vorjahre übertraf.

Es besteht kein Zweifel, dass GPT-3 oder sogar ChatGPT dieser Meilenstein ist.Schon vor der Geburt von ViT glaubte fast niemand, dass Aufmerksamkeit für visuelle Aufgaben genutzt werden könnte. Wir wissen, dass eine Modellstruktur immer ein Ereignis benötigt, um ihre Wirksamkeit zu beweisen. Entweder ist die Parameterskala riesig und wirksam oder der Mechanismus ist bei einer bestimmten Art von Aufgabe SOTA. Rückblickend auf RWKV liegt der Grund dafür, dass RWKV bisher nicht das Potenzial gezeigt hat, Attention zu übertreffen, wahrscheinlich an der großen Lücke im Investitionsbudget. Das Potenzial von RWKV ist noch lange nicht bewiesen.

Ich denke, wir sollten das Backbone nach der Aufmerksamkeit basierend auf dem vorhandenen Backbone vorhersagen. Derzeit scheinen RWKV und Microsofts RetNet dieses Potenzial zu haben.

Phase 3: Diskussionsrede

Wird die Bereitstellung großer Modelle in Zukunft hauptsächlich auf der Clientseite oder in der Cloud erfolgen?

Wu Zhao:Ich denke, dass der Schwerpunkt in den nächsten drei bis fünf Jahren auf der Endseite liegen wird. Zunächst einmal wird die Produktform des großen Modells definitiv nicht nur auf Chat basieren. In Zukunft wird es sicherlich noch viele vertikale Großmodelle geben.Beispielsweise sind selbstfahrende Autos, Mobiltelefone, Mikroroboter usw. allesamt Endgeräte, und die Nachfrage und Rechenleistung dieser Art von Infer sind enorm. Es ist unwahrscheinlich, dass es eine Cloud geben wird, die so viele Szenarien und Geräte unterstützt. Gleichzeitig muss bei Anwendungen mit hoher Latenzempfindlichkeit, wie etwa autonomes Fahren, auch die Latenz vom Ende zur Cloud berücksichtigt werden.

Wang Chenhan:Die Bereitstellung großer Modelle in der Cloud kann länger dauern als wir denken. Bisher ging man allgemein davon aus, dass die Cloud in den nächsten ein bis zwei Jahren im Mittelpunkt stehen und sich in etwa fünf Jahren auf die Endseite verlagern würde.Meiner Einschätzung nach wird es innerhalb von drei bis vier Jahren Cloud-basiert sein und innerhalb von fünf bis acht Jahren End-to-End-Tests ermöglichen.

Nehmen Sie GPT-3.5 (20B) als Beispiel. Es belegt im vierten Quartal FP16 mehr als 10 GB. Abgesehen vom Stromverbrauch ist es nicht für jeden heutzutage akzeptabel, 10 GB oder mehr zum Speichern eines Modells auf einem Mobiltelefon zu verwenden.Darüber hinaus verlangsamt sich die Entwicklung der Chipherstellungsprozesse und die Chiparchitektur wird sich nicht mehr so schnell weiterentwickeln wie in den vergangenen 20 Jahren. Daher glaube ich nicht, dass das Cloud-Modell bald bis zur Endseite dezentralisiert werden kann.

Feng Siyuan:schließenWas die erwartete Entwicklung von Transformer betrifft, stimme ich mit Chen Han überein, dass es grundsätzlich unwahrscheinlich ist, dass es innerhalb von 5 Jahren vollständig von der Cloud getrennt wird.Wenn jedoch ein neues Modell auf den Markt kommt, könnte dies einen Teil des Rechenleistungsproblems lösen. Möchte man ein großes Modell auf einem Mobiltelefon bereitstellen, mangelt es an Rechenleistung eigentlich nicht. Nehmen Sie als Beispiel ein Android-Telefon. Es verfügt über eine 35T-Matrixeinheit, diese Matrixeinheit ist jedoch eine Einzelcharge und daher bei Überlegungen zu einem großen Modell völlig nutzlos. Wenn es ein Modell gibt, das das Argumentationsproblem des Endtests lösen kann, wird es höchstwahrscheinlich innerhalb eines halben Jahres nach der Veröffentlichung des Modells gelöst sein. Wann dieses Modell auf den Markt kommt, lässt sich noch nicht sagen.

Die Produktionsmethode für Modelle, insbesondere für terminalseitige Modelle, unterscheidet sich völlig von der für in der Cloud bereitgestellte Modelle. Es muss vom Unternehmen geleitet werden. Beispielsweise entwickeln Hersteller wie Qualcomm und Apple ein Modell, das speziell für den Einsatz auf Mobiltelefonen oder Endgeräten geeignet ist.Wenn Sie möchten, dass Ihr Modell die gewünschte Wirkung erzielt, müssen Sie Transformer nicht übertreffen, sondern sich nur Transformer annähern. Dies ist auf der Clientseite besser geeignet und muss mit den Design-, Trainings- und Aufgabenunterschieden des Modells zusammenhängen.

Wu Zhao:Der derzeit gängige Ansatz besteht darin, ein großes Modell in der Cloud abzuleiten und dann ein kleines Modell zu destillieren.Aus praktischer Sicht sind wir eher daran interessiert, wie wir die Geschäftsentwicklung einiger vertikaler Anwendungen unterstützen können. Es besteht keine Notwendigkeit, ein so großes Modell wie LLaMA einzusetzen. In vertikalen Szenarien kann die Anzahl der Parameter 1–3 B betragen.

Wang Chenhan:Heute haben wir Architektur und Backbone besprochen, aber den Datenumfang nicht berücksichtigt.Basierend auf den informationswissenschaftlichen Prinzipien von Shannons Vorgängern ist unter bestimmten Matrixbedingungen die übertragene Datenmenge begrenzt und effizientere Komprimierungsmethoden bringen zwangsläufig Verluste mit sich.Wenn Sie also eine bestimmte Leistung wünschen – vorausgesetzt, diese Leistung basiert auf GPT-3.5, wir haben gerade 10 GB+ erwähnt –, dann müssen wir davon ausgehen, dass diese auch bei Erscheinen eines effizienteren Backbones nicht unter 7 GB liegen wird. Um Modelle dieser Stufe zu unterstützen, kann der Speicher des Geräts erweitert werden, die Rechenleistung wird jedoch nicht reduziert.

Ich habe bereits erwähnt, dass sich die Iterationsgeschwindigkeit des Prozesses verlangsamt.Es ist möglich, dass die Leistung, die wir aus einem Chip mit einheitlicher Größe herausholen können, in weiteren 5–10 Jahren nicht mehr so gut ist wie in den letzten 3 Jahren. Dies ist eine Tatsache, die wir jetzt sehen können.

2024 Treffen Sie TVM · Die Zukunft ist vielversprechend

Vom ersten bis zum vierten Quartal 2023 haben wir erfolgreich vier Offline-Meetups in Shanghai, Peking und Shenzhen abgehalten. Wir freuen uns sehr, Ingenieure, die sich mit KI-Compilern beschäftigen, in verschiedenen Städten zusammenzubringen und allen eine Plattform zum Lernen und zur Kommunikation zu bieten. Im Jahr 2024 werden wir den TVM-Stadtplan weiter ausbauen und alle Unternehmen und Community-Partner herzlich einladen, sich in verschiedenen Formen an der gemeinsamen Gestaltung zu beteiligen. Ob es um die Empfehlung von Dozenten oder die Bereitstellung von Veranstaltungsorten und Teepausen geht, sie alle sind uns willkommen.

Lassen Sie uns gemeinsam daran arbeiten, die aktivste KI-Compiler-Community in China aufzubauen!


Freunde, die die wunderbare Rede des Gastes nicht gesehen haben, können klickenVeranstaltungsrückblick (Teil 1) | Veranstaltungsreihe „Meet TVM“ 2023 erfolgreich abgeschlossenSehen Sie sich die vollständige Aufzeichnung an~
Folgen Sie dem öffentlichen WeChat-Konto „HyperAI 超神经元“, antworten Sie im Hintergrund auf das Schlüsselwort „TVM-Jahresendparty“ und erhalten Sie die vollständige PPT der Gäste.
Sie können sich auch die „TVM-Jahresabschlussparty“ merken, den QR-Code scannen, um der Veranstaltungsgruppe beizutreten und die neuesten Veranstaltungsinformationen zu erhalten~

Veranstalter und Partner

Als Organisator dieser Veranstaltung wurde im Juni 2022 die MLC.AI-Community gegründet. Unter der Leitung von Chen Tianqi, dem Haupterfinder von Apache TVM und einem bekannten jungen Wissenschaftler auf dem Gebiet des maschinellen Lernens, startete das Team den MLC-Onlinekurs, der systematisch die Schlüsselelemente und Kernkonzepte der Kompilierung maschinellen Lernens vorstellte.

Im November 2022 wurde dank der gemeinsamen Anstrengungen der Freiwilligen der MLC.AI-Community die erste vollständige chinesische TVM-Dokumentation veröffentlicht und erfolgreich auf der offiziellen HyperAI-Website gehostet. Damit werden inländischen Entwicklern, die an der Kompilierung von maschinellem Lernen interessiert sind, die grundlegenden Einstellungen für den Zugriff auf und das Erlernen einer neuen Technologie – der Dokumentation – bereitgestellt.
MLC-Onlinekurse:https://mlc.ai/Chinesische TVM-Dokumentation:https://tvm.hyper.ai/

HyperAI ist Chinas führende Community für künstliche Intelligenz und Hochleistungsrechnen und hat sich zum Ziel gesetzt, inländischen Entwicklern hochwertige öffentliche Ressourcen im Bereich der Datenwissenschaft zur Verfügung zu stellen.Bisher wurden inländische Download-Knoten für mehr als 1.200 öffentliche Datensätze bereitgestellt, über 300 Abfragen von Begriffen im Zusammenhang mit künstlicher Intelligenz und Hochleistungsrechnen unterstützt und mittlerweile sind Hunderte von Branchenbegriffen und -fällen enthalten, Tausende von öffentlichen Datensätzen und Tutorials einschließlich großer Modelle gestartet und die komplette chinesische TVM-Dokumentation gehostet.
Besuchen Sie die offizielle Website:https://hyper.ai/

OpenBayes Bayesian Computing ist ein führender Anbieter von Hochleistungs-Computing-Diensten in ChinaDurch die Integration klassischer Software-Ökosysteme und Modelle des maschinellen Lernens in heterogene Chips der neuen Generation werden Industrieunternehmen und der wissenschaftlichen Forschung an Universitäten schnellere und benutzerfreundlichere Produkte für die Datenwissenschaft bereitgestellt. Seine Produkte werden von Dutzenden großer Industrieszenarien oder führenden wissenschaftlichen Forschungsinstituten übernommen.
Besuchen Sie die offizielle Website:https://openbayes.com/

Centimeter Space (Xiamen) istChina Merchants GroupSeine professionelle Innovationspark-Managementgesellschaft betreibt den professionellen Inkubator „CM Space“ in Xiamen. Von der Südostküste aus und basierend auf den Vorteilen der drei Hauptgeschäftsbereiche der China Merchants Group – Transport, umfassende Stadt- und Parkentwicklung sowie Finanzen – konzentrieren wir uns darauf, Start-ups im Bereich künstliche Intelligenz in den frühen Entwicklungsphasen mit den am dringendsten benötigten Anwendungsszenarien, Modellüberprüfungen, Kunden in der Startphase und anderen Ressourcen zu unterstützen und bei der effizienten Inkubation von Unternehmen im Bereich künstliche Intelligenz zu helfen.

VorgesetzterHaiyun-Basis(Shanghai Cloud Computing Innovation Base, Shanghai Big Data Innovation Base) ist ein professioneller Inkubator auf nationaler Ebene, der schon früh in China gegründet wurde und die Entwicklung der Cloud-Computing-Branche von 0 auf 1 fördert. Mit dem Modell Fonds + Basis + Plattform und der Digitalwirtschaftsbranche als Kern konzentriert er sich auf Untersektoren wie Cloud Computing, Cloud Native, Big Data und künstliche Intelligenz sowie digitales Gesundheitswesen und hat fast tausend herausragende Unternehmen im In- und Ausland versammelt und inkubiert. Durch die Verbindung der vier Ökosysteme Technologie, Benutzer, Kapital und Dienste führen wir weiterhin das „Scenario Innovation Lab“ und das „Digital Economy Listing Preparation Camp“ durch, um eine digitale Wirtschaft aufzubauen.Branchenbeschleuniger.

Homevalley – eine grenzüberschreitende Serviceplattform aus einer Hand für globale Unternehmen – hat sich dem Aufbau einer marktorientierten Unternehmensserviceplattform verschrieben, deren Kerninhalte unternehmerische Inkubationsbasen, Homevalley-Talente, Homevalley-Unternehmensdienste und Homevalley-Kulturkommunikation sind. Wir vernetzen uns mit ausländischen Think Tanks und Marktressourcen in Nordamerika, Europa, Asien usw. und bieten Dienstleistungen wie den Betrieb von Industrieparks und Inkubationszentren, Unternehmerschulungen, Unternehmensberatung, Investitionen und Finanzierungen, die Förderung der Rückkehr ausländischer Talente sowie globale Innovations- und Unternehmeraktivitäten an und unterstützen chinesische Start-ups bei der Expansion ins Ausland. Home Valley hat sich zum Ziel gesetzt, Talente zu entdecken, zu fördern und zu erreichen, herausragenden jungen Talenten dabei zu helfen, ihre Träume zu verwirklichen und für Rückkehrer einen Ort der Heimat zu schaffen, an dem sie Unternehmen gründen und ihre Talente fördern können.