HyperAI초신경

활동 검토(2부) | 머신러닝 시스템 동향 분석, 전문가 의견 요약

일 년 전
명예의 전당
Yang Bai
特色图像

저자: Sanyang, Li Baozhu, Li Weidong, Yudi, xixi

편집자: 이보주

대규모 모델 시대를 맞아 머신 러닝 시스템은 전례 없는 변화를 겪고 있습니다. 모델 크기의 급속한 확장으로 인해 우리는 AI 역량이 엄청나게 향상되는 것을 목격할 수 있었습니다. 그러나 이러한 개선은 다양한 분야에 새로운 기회를 가져다 주었을 뿐만 아니라, 일련의 새로운 기술적 과제와 실질적인 어려움도 야기했습니다.

12월 16일, 2023년 Meet TVM·송년회가 상하이 창업가 공공훈련기지에서 성공적으로 개최되었습니다. 이 미팅에서는Apache TVM PMC 및 상하이 교통대학교 박사 풍시위안이 사회를 맡아 "빅모델 시대의 머신러닝 시스템"이라는 주제로 4명의 게스트와 전방위적이고 다각적인 교류와 토론을 진행했습니다.

이 원탁토론에 참석한 네 명의 게스트는 다음과 같습니다.

* OpenBayes Bayesian Computing의 창립자이자 CEO인 Wang Chenhan

* NIO 자율주행 AI 엔진 책임자 Wu Zhao

* OctoML의 머신 러닝 시스템 엔지니어인 Jin Lesheng

* Zhu Hongyu, ByteDance 머신러닝 시스템 엔지니어

왼쪽부터: 펑시위안, 왕첸한, 우자오, 진러성, 주홍위

우리는 원래 의도를 훼손하지 않으면서 이 대화를 다음과 같이 요약했습니다. 와서 손님들의 놀라운 통찰력을 들어보세요.

빅 모델 시대의 머신 러닝 시스템

1단계: 토론 연설

이 단계에서는 클라우드, 엔드-사이드, 차량(테슬라 FSD V12) 등 모든 분야에서 대형 모델이 엄청난 화제입니다. 모든 게스트는 실제 작업이나 토론에서 대규모 모델의 훈련과 배포 과정에서 시스템 최적화 문제에 직면하게 될 것입니다. 여러분이 겪었던 주요 어려움과 해결책을 차례로 소개해 주세요. 

왕 천한:OpenBayes 베이지안 컴퓨팅은 올해 6월부터 단일 모달 모델 훈련을 시작했습니다. 슈퍼클루  국내 대형 모델 스타트업 순위 5위에 올랐습니다.대규모 모델 학습 기술의 관점에서 볼 때, 현재 우리가 직면하고 있는 핵심 문제는 네트워크 지연입니다. 기본적으로 어떤 칩도 자체 클러스터에서 최대 용량으로 실행될 수 없습니다.

~에 따르면 오픈AI  공식 홈페이지의 "쿠버네티스를 2500개 노드로 확장하기"에 따르면, GPT-3를 학습할 때 GPU의 최대 활용도는 18%를 넘지 않아야 하며, 평균 활용도는 약 12-15%입니다. 즉, 클러스터를 짓는 데 1억을 쓴다면, 이 클러스터에 대한 투자 중에서 실제로 활용되는 것은 1,200만~1,500만 달러에 불과하다는 의미입니다.재정적인 관점에서 볼 때, 데이터 병렬성, 파이프라인 작업, 벡터 병렬성을 극대화하는 방법이 실제로 학습에서 가장 큰 과제입니다.

중국에서의 배포/추론의 과제는 주로 복잡한 엔지니어링 문제입니다. 비디오 메모리 대역폭이 좋지 않으면 PCIE 최적화는 실제로 매우 까다로울 수 있습니다. OpenBayes 베이지안 컴퓨팅과 많은 상류 및 하류 제조업체는 vLLM을 사용합니다. 이는 엔지니어링 작업을 대폭 절감하고 추론 작업 부하를 크게 줄여줍니다.

진러성:우리가 직면한 과제는 크게 두 가지로 나눌 수 있습니다.

1. TVM과 MLC-LLM은 7B 속도로 실행되므로 때로는 카드가 70B와 같은 더 큰 모델을 저장하지 못할 수 있습니다.지난 분기에 우리는 이 문제를 해결하기 위해 Tensor Parallelism을 사용하려고 했습니다. 이 솔루션은 이제 오픈 소스로 공개되었습니다. 관심이 있다면, 시도해 볼 수 있습니다.

2. 또 다른 요구 사항이 있습니다.현재는 배치 크기 = 1만 지원합니다.개인 사용에는 더 적합하지만, Serving에 대해 생각해보면 현재 개발 중인 vLLM에 비해 훨씬 떨어진다는 것을 알게 될 것입니다.

풍시위안:또한 추론의 주요 추세는 여전히 불분명하다는 점을 덧붙이고 싶습니다. Transformer는 대규모 모델에서 사용되는 주류 아키텍처이기는 하지만, 전반적으로 방법에는 여전히 많은 변화가 있습니다. 이 경우, Transformer가 대규모 모델을 통합할 수 있는지 여부는 여전히 의문입니다.따라서 상위 및 하위 계층에 불확실성이 있는 시나리오에서는 기존 TVM 엔드투엔드 컴파일보다 사용자 정의 가능성과 민첩한 개발이 더 중요할 수 있습니다.제 생각에는 대규모 모델의 추론과 훈련에는 여전히 개선의 여지가 많이 있습니다.

2단계: 타겟형 질문

미국에서 금지령이 강화됨에 따라 원래 금지 대상이었던 훈련 카드에 대한 제한이 확대되어 대규모 모델 추론 카드에도 영향을 미치게 되었습니다. 단기적으로 대규모 모델의 클라우드 기반 추론을 위한 가장 비용 효율적인 솔루션은 무엇입니까? (게임카드 및 그래픽카드는 허용), 국내 NPU GPU가 추론 분야의 공백을 메우는 데 얼마나 걸릴까요?

왕 천한:학습 및 추론 모델의 크기가 다르고, 사용 시나리오와 비즈니스 부하도 다르기 때문에 통일된 답을 내는 것은 어렵습니다.

엣지 선택의 관점에서 보면, 국산 칩 Rockchip 3588이 좋은 선택입니다. 성능과 비용 효율성이 좋고, 기술 스택이 비교적 보편적이며, 구하기도 비교적 쉽고 저렴합니다.또한, 엔비디아 오린은 암페어 GPU의 거세 버전과 같습니다.q4f 16 예산 사양을 따른다면 Orin은 비디오 메모리에서 추론까지 7B, 14B 또는 34B 모델을 실행해야 하는 부담을 크게 받지 않을 것입니다.

NVIDIA는 클라우드 선택을 위해 H20, L20, L2라는 세 가지 칩을 공개했습니다. NVIDIA의 공식 정보에 따르면, 대형 모델의 실제 추론 수준은 아마도 L40의 70%-80%일 것입니다. A6000은 나중에 금지 목록에 추가되었지만 재고는 비교적 많습니다. A6000의 장점은 NVLink를 탑재한 48GB의 대용량 비디오 메모리를 탑재한다는 것입니다. 이 중 두 개를 설치하면 130% A100을 얻을 수 있습니다.

국내 칩 제조업체와의 접촉을 통해 우리는 모든 업체가 단일 Attention Backbone을 최대한 최적화하려고 노력하고 있다는 것을 알게 되었습니다.

2단계: 타겟형 질문


국내 칩 분야에서 기업이 추론 측면에서 진정한 성공을 거두고 엔비디아의 시장 점유율을 빼앗는 데 얼마나 걸릴 것으로 생각하십니까?

왕 천한:국내 칩 업체들이 18개월 안에 엔비디아의 시장점유율 20% 이상을 차지할 수 있을 것으로 봅니다.이러한 판단의 주요 근거는 우리나라의 우호적인 정책과 미국으로부터의 지속적인 제재가 국산화율의 증가를 촉진했다는 것입니다. 게다가 제가 아는 한, NVIDIA CUDA 명령어 및 API와의 호환성이 92% 이상에 도달할 수 있는 국내 제조업체도 이미 있습니다. 따라서 저는 여전히 18개월 주기를 예측하는 데 매우 자신감을 가지고 있습니다.


2단계: 타겟형 질문

NIO가 TVM을 선택한 이유는 무엇입니까? 자율주행 분야에서 TVM의 장점은 무엇입니까?

우자오:우선, 저는 TVM 기술적 배경을 가지고 있기 때문에 팀을 구성할 때 TVM을 우선시합니다. 둘째,실제 프로젝트에서 기술이 합리적인지 여부를 고려하는 중요한 기준 중 하나는 아키텍처가 비즈니스 요구 사항을 충족할 수 있는지 여부입니다.

자율주행은 매우 복잡한 적용 시나리오이며, 아키텍처에 대한 요구 사항도 더욱 엄격합니다. 기술적 경로를 선택할 때는 프로젝트 요구 사항과 프로젝트 주기를 종합적으로 고려하는 것이 필요합니다.NIO의 자율주행 사업의 경우, 첫 번째 모델인 ET7은 2022년 3월에 인도될 예정입니다. 당시 저희 팀은 자율주행의 복잡한 모델을 다룰 시간이 반년밖에 없었기 때문에 엔드투엔드 솔루션을 선택해야 했습니다. 당시에는 많은 우호적인 경쟁자들이 TensorRT를 사용하고 있었습니다. TensorRT의 문제점은 모델이 점점 더 복잡해지고, 요구 사항이 점점 더 이상해져서 장기적으로 적합하지 않다는 것입니다.

자율주행 분야에서 고려해야 할 첫 번째 문제는 차량 측에서 성능, 정확도 및 기타 측정 항목을 완전히 제어하는 방법입니다.자율주행은 많은 특수한 상황을 해결해야 하므로, 알고리즘 팀은 주로 클라우드에서 모델을 학습한 후 이를 차량에 배포합니다. 이 과정에서 TensorRT 블랙박스를 사용하면 양자화 알고리즘을 완벽하게 숙지할 수 없으며, 양자화는 우리에게 매우 중요합니다.

또한 MLIR은 기존 컴파일러에 매우 적합하지만 초기 단계에서는 비교적 많은 시간이 필요합니다. 당시에는 비교적 엄격한 시간 제한이 있었고 End-to-End 솔루션을 선택해야 했기 때문에 평가 후 MLIR을 포기했습니다.

마침내,자율 주행을 위해서는 전반적인 배포의 안정성과 낮은 CPU 사용률이 중요합니다.그러므로 우리는 완벽한 제어가 가능하고 CPU 사용량을 줄일 수 있는 솔루션을 선택해야 하는데, 이는 블랙박스로는 달성할 수 없는 것입니다.

요약하자면,당시 우리에게는 올 화이트박스 TVM이 가장 좋은 선택이었습니다.

3단계: 토론 연설

현재는 대형 모델과 자율주행 모델이 서로 묶여 있습니다. 이 경우 모델의 알고리즘, 시스템, 심지어 칩까지도 공통적으로 진화하게 됩니다. 교사들은 이에 대해 자신의 견해를 공유할 수 있습니다.

왕 천한:저는 DSA와 GPGPU가 상호 의존적일 가능성이 높고, 어느 쪽도 다른 쪽 없이는 존재할 수 없다고 생각합니다. 미래에는 칩의 아키텍처가 어텐션의 형태만은 아닐 것입니다.  최근 커뮤니티에는 Mistral 7B MoE, Microsoft의 등 많은 새로운 기술과 제품이 등장했습니다. 레트넷 , 멀티모달리티의 등장 등, 대규모 언어 모델을 통한 전체 아키텍처의 통합은 올해 3월부터 10월까지의 짧은 환상일 뿐일지도 모릅니다. AI의 미래 아키텍처와 NVIDIA가 정의한 패러다임은 앞으로도 한동안 지속될 가능성이 매우 높습니다.하지만 NVIDIA가 이 측면에서 항상 선두를 유지할 수는 없을 것입니다. Attention이 다른 팔로워와 NVIDIA 간의 격차를 줄일 것이라는 점에는 의심의 여지가 없습니다.예를 들어, AMD MI300X와 같이 공개적으로 이름을 언급하기 어려운 국내산 칩 등이 있습니다.

더 많은 트렌드에서,GPGPU를 중심으로 한 아키텍처의 발전은 앞으로도 장기적인 추세로 이어질 것입니다.

우자오:실제 프로젝트 경험상, 작은 변화는 가능하지만 큰 변화는 어렵습니다. 즉, 기본적으로 비즈니스 요구를 충족한다는 전제 하에 하드웨어에 대한 미세 조정 및 적응이 이루어질 수 있습니다.하지만 좋은 결과를 얻기 위해 Transformer가 필요하지만 특정 하드웨어가 Transformer에 대한 지원이 매우 부족한 경우, 사업적인 관점에서 볼 때 해당 하드웨어에는 배포하지 않을 것입니다. 이것이 현재 업계의 현황입니다.

도전이라는 측면에서는, 위에 언급한 것들을 포함해서 분명 도전이 있을 거라고 생각합니다. 아르 자형  또는 RNN은 더 이상 주의의 2차 복잡도가 아니라 선형 복잡도입니다.여기에도 문제가 있다. 이것만으로는 도전에 성공하기에 충분하지 않습니다. 왜냐하면 제한된 시나리오에서 효과에 대한 요구 사항을 충족하기 위해 압축이나 다른 수단을 사용할 수 있기 때문입니다. 이 경우, RWKV의 생태와 효과는 트랜스포머만큼 좋지 않으며, 사용자는 트랜스포머를 포기하고 RWKV를 채택할 이유가 없습니다.

그래서 제 생각에는,알고리즘은 가장 중요한 원동력입니다.알고리즘 효과가 달성될 수 있다면 비용 대비 성능을 고려하여 다른 시스템 칩을 고려할 수도 있습니다.

진러성:제 생각은 우 교수님의 생각과 매우 비슷합니다. 저는 이전에 머신러닝 분야에서 일한 적이 있고 AI에 관한 논문을 몇 편 발표했습니다. 저는 ML을 수행하는 사람들이 지연 시간이나 시스템 관련 지표에 거의 주의를 기울이지 않는다는 것을 발견했습니다. 그들은 정확성을 개선하고 SOTA에 도달할 수 있는지에 더 관심이 있습니다.그래서 저는 트랜스포머를 완벽하게 능가하는 성능을 가진 새로운 모델이 등장한다면, 그것은 반드시 주류가 될 것이고, 모든 하드웨어 제조업체와 소프트웨어 스택이 이에 적응할 것이라고 생각합니다. 그러므로 저는 알고리즘이 여전히 우위를 점할 것이라고 생각합니다.

왕 천한:우리는 매개변수 규모가 클 경우 RWKV의 학습 비용을 약 1/3까지 줄일 수 있다고 추정했습니다.예를 들어, 대규모 머신 러닝 모델을 구축할 때 모든 사람은 커뮤니케이션 도구와 커뮤니케이션에 의존합니다. 지수 수준에서 선형 수준으로 감소하면 통신 요구 사항이 감소합니다.

Attention 메커니즘이 사람들의 관심을 끌기 시작한 것은 2017년이었지만, 전 세계의 머신러닝 관련 논문을 크롤링하고 분석한 결과, 2022년 한 해에만 발표된 논문 수가 지난 몇 년간의 총 논문 수를 넘어섰다는 것을 발견했습니다.

GPT-3나 ChatGPT가 이러한 이정표라는 점에는 의심의 여지가 없습니다.ViT가 탄생하기 전에도 거의 아무도 주의가 시각적 작업에 사용될 수 있다고 믿지 않았습니다. 우리는 모델 구조가 효과를 증명하기 위해 항상 이벤트가 필요하다는 것을 알고 있습니다. 즉, 매개변수 규모가 거대하고 효과적이거나 메커니즘이 특정 유형의 작업에서 SOTA인 것입니다. RWKV를 돌이켜보면, RWKV가 아직 Attention을 넘어설 잠재력을 보여주지 못하는 이유는 아마도 투자 예산에 엄청난 차이가 있기 때문일 것입니다. RWKV의 잠재력은 아직 입증되지 않았습니다.

기존의 Backbone을 기반으로 Attention 이후의 Backbone을 예측해야 한다고 생각합니다. 현재로서는 RWKV와 Microsoft의 RetNet이 이런 잠재력을 가지고 있는 것으로 보입니다.

3단계: 토론 연설

앞으로 대규모 모델은 주로 클라이언트 측에서 배포될까요, 아니면 클라우드에서 배포될까요?

우자오:저는 앞으로 3~5년 안에 초점이 끝부분에 맞춰질 것으로 생각합니다. 우선, 대형 모델의 제품 형태는 결코 채팅에만 기반하지 않을 것입니다. 앞으로는 수직형 대형 모델이 많이 나올 것 같습니다.예를 들어 자율주행차, 휴대폰, 마이크로 로봇 등은 모두 단말 장치이며, 이러한 종류의 추론에 대한 수요와 컴퓨팅 파워는 엄청납니다. 이렇게 많은 시나리오와 장치를 지원하는 클라우드가 존재할 가능성은 낮습니다. 동시에 자율주행과 같이 지연 시간에 민감하게 반응하는 애플리케이션의 경우, 엔드 투 엔드에서 클라우드까지의 지연 시간도 고려해야 합니다.

왕 천한:대규모 모델을 클라우드에 배포하는 데는 우리가 생각하는 것보다 더 오랜 시간이 걸릴 수 있습니다. 이전에는 모두가 일반적으로 클라우드가 앞으로 1~2년 내에 주된 초점이 될 것이고, 약 5년 내에 최종 단계로 넘어갈 것이라고 믿었습니다.제 판단으로는 3~4년 내에 클라우드 기반이 될 것이고, 5~8년 내에 종단간 테스트가 완료될 것으로 봅니다.

예를 들어 GPT-3.5(20B)를 살펴보겠습니다. Q4 FP16에서는 10GB 이상을 차지합니다. 전력 소모를 제쳐두고라도, 모바일 폰에 모델을 저장하기 위해 10GB 이상을 사용한다는 것은 지금 누구나 받아들일 수 있는 일이 아닙니다.또한 칩 제조 공정의 발전이 둔화되고 있으며, 칩 아키텍처는 지난 20년 동안 그랬던 것처럼 더 이상 빠르게 발전하지 않을 것이므로 클라우드 모델이 엔드 쪽으로 분산되기는 쉽지 않을 것으로 생각합니다.

풍시위안:닫다트랜스포머의 예상 개발 방향에 대해 저는 첸 한의 견해에 동의합니다. 즉, 5년 안에 클라우드에서 완전히 분리될 가능성은 기본적으로 낮다는 것입니다.하지만 새로운 모델이 나온다면 컴퓨팅 성능 문제의 일부를 해결할 수도 있을 겁니다. 모바일 폰에 대규모 모델을 배포하려는 경우 실제로 컴퓨팅 성능이 부족하지 않습니다. 예를 들어 안드로이드 폰을 살펴보겠습니다. 35T 매트릭스 유닛이 있지만, 이 매트릭스 유닛은 단일 배치이므로 대형 모델을 추론할 때는 전혀 쓸모가 없습니다. 엔드 테스트의 추론 문제를 해결할 수 있는 모델이 있다면, 모델이 출시된 후 반년 안에 해결될 가능성이 큽니다. 이 모델이 언제 출시될지는 아직 말하기 어렵습니다.

특히 터미널 측 모델의 제작 방법은 클라우드에 배포되는 모델의 제작 방법과 완전히 다릅니다. 회사가 주도해야 합니다. 예를 들어, Qualcomm과 Apple과 같은 제조업체는 모바일폰이나 단말기에 배포하기 위한 모델을 특별히 설계합니다.모델이 효과를 발휘하게 하려면 트랜스포머를 능가할 필요는 없고, 트랜스포머에 가까워지면 됩니다. 이는 클라이언트 측에 더 적합하며, 모델의 설계, 교육 및 작업 차이와 관련이 있어야 합니다.

우자오:현재 주류를 이루는 접근 방식은 클라우드에서 대규모 모델을 도출한 다음 작은 모델을 정제하는 것입니다.실용적인 관점에서 볼 때, 우리는 일부 수직 애플리케이션의 사업 개발을 지원하는 방법에 더욱 관심을 갖고 있습니다. LLaMA만큼 큰 모델을 배포할 필요는 없습니다. 수직 시나리오에서는 매개변수의 개수가 1~3B가 될 수 있습니다.

왕 천한:오늘은 아키텍처와 백본에 대해 논의했지만 데이터 규모에 대해서는 고려하지 않았습니다.섀넌의 선배들이 주장한 정보 과학 원리에 따르면, 특정 매트릭스 조건에서는 전송되는 데이터 양이 제한되며, 더 효율적인 압축 방법은 필연적으로 손실을 초래합니다.따라서 특정 성능을 원한다면(이 성능이 GPT-3.5 기반이라고 가정하고, 방금 언급한 10GB 이상) 더 효율적인 백본이 등장하더라도 7GB 이상은 되지 않을 것이라고 믿어야 합니다. 이 수준의 모델을 지원하기 위해 장치의 저장 용량을 확장할 수 있지만 컴퓨팅 성능은 감소하지 않습니다.

앞서 말씀드렸듯이 프로세스의 반복 속도가 느려지고 있습니다.앞으로 5~10년 후에는 단일 크기의 칩에서 낼 수 있는 성능이 지난 3년만큼 좋지 않을 수도 있습니다. 이는 우리가 지금 확인할 수 있는 사실입니다.

2024 TVM을 만나보세요 · 미래는 밝습니다

2023년 1분기부터 4분기까지 상하이, 베이징, 선전에서 4차례의 오프라인 미팅을 성공적으로 개최했습니다. 우리는 다양한 도시의 AI 컴파일러에 관심이 있는 엔지니어들을 한자리에 모아, 모든 사람에게 학습과 소통을 위한 플랫폼을 제공하게 되어 매우 기쁩니다. 2024년에는 TVM 도시 지도를 계속 확장하고 모든 기업과 지역 사회 파트너가 다양한 형태로 공동 창조에 참여하기를 진심으로 초대합니다. 강사 추천부터 장소 제공, 티타임 제공까지 모두 환영합니다.

중국에서 가장 활성화된 AI 컴파일러 커뮤니티를 만들기 위해 함께 노력합시다!


게스트의 멋진 연설을 보지 못한 친구들은 클릭할 수 있습니다.이벤트 리뷰 (1부) | 2023년 Meet TVM 시리즈 행사가 성공적으로 마무리되었습니다.전체 녹음을 보세요~
위챗 공개 계정 "HyperAI 超神经元"을 팔로우하고, 백그라운드 키워드 "TVM 연말파티"에 답글을 달면 게스트 PPT 전체를 받아볼 수 있습니다.
TVM 연말파티에도 주목하세요~ QR코드를 스캔하여 이벤트 그룹에 참여하고 최신 이벤트 정보를 받아보세요~

주최자 및 파트너

이 행사의 주최자인 MLC.AI 커뮤니티는 2022년 6월에 설립되었습니다. Apache TVM의 주요 발명가이자 머신 러닝 분야의 저명한 젊은 학자인 천톈치가 이끄는 팀은 머신 러닝 컴파일의 핵심 요소와 핵심 개념을 체계적으로 소개하는 MLC 온라인 과정을 시작했습니다.

2022년 11월, MLC.AI 커뮤니티 자원봉사자들의 공동 노력으로 최초의 완전한 TVM 중국어 문서가 출시되어 HyperAI 공식 웹사이트에 성공적으로 호스팅되었습니다. 이를 통해 머신 러닝 컴파일에 관심이 있는 국내 개발자에게 새로운 기술인 문서에 접근하고 학습할 수 있는 기본 설정을 제공하게 되었습니다.
MLC 온라인 과정:https://mlc.ai/TVM 중국어 문서:https://tvm.hyper.ai/

HyperAI는 중국 최고의 인공지능 및 고성능 컴퓨팅 커뮤니티로, 국내 개발자에게 데이터 과학 분야의 고품질 공공 리소스를 제공하는 데 전념하고 있습니다.지금까지 1,200개 이상의 공개 데이터 세트에 대한 국내 다운로드 노드를 제공하고, 300개 이상의 인공지능 및 고성능 컴퓨팅 관련 용어 쿼리를 지원했으며, 현재는 수백 개의 업계 용어와 사례를 포함하고, 대규모 모델을 포함한 수천 개의 공개 데이터 세트와 튜토리얼을 출시하고, 완전한 TVM 중국어 문서를 호스팅했습니다.
공식 웹사이트를 방문하세요:https://hyper.ai/

OpenBayes Bayesian Computing은 중국을 대표하는 고성능 컴퓨팅 서비스 제공업체입니다.기존 소프트웨어 생태계와 머신 러닝 모델을 차세대 이기종 칩에 접목하여 산업체와 대학의 과학 연구에 더 빠르고 사용하기 쉬운 데이터 과학 컴퓨팅 제품을 제공합니다. 해당 제품은 수십 개의 대규모 산업 시나리오나 주요 과학 연구 기관에서 채택되었습니다.
공식 웹사이트를 방문하세요:https://openbayes.com/

센티미터 공간(샤먼)은중국 상인 그룹회사의 전문적 혁신 공원 관리 회사는 샤먼에서 "CM Space" 전문 인큐베이터를 운영합니다. 동남부 해안에 뿌리를 두고, 중국상인그룹의 교통, 도시 및 공원 종합 개발, 금융의 3대 사업의 이점을 활용하여 인공지능 스타트업에 가장 시급하게 필요한 응용 시나리오, 모델 검증, 시드 단계 고객 및 기타 초기 개발 단계의 리소스 지원을 제공하는 데 중점을 두고 인공지능 기업의 효율적인 육성을 돕습니다.

우수한하이윈 기지(상하이 클라우드 컴퓨팅 혁신 기지, 상하이 빅데이터 혁신 기지)는 중국에서 일찍 시작된 국가급 전문 인큐베이터로, 클라우드 컴퓨팅 산업의 0에서 1로의 발전을 촉진했습니다. 펀드+기지+플랫폼 모델을 기반으로 디지털 경제 산업을 핵심으로 클라우드 컴퓨팅, 클라우드 네이티브, 빅데이터 및 인공지능, 디지털 헬스케어 등의 하위 분야에 중점을 두고 있으며, 국내외 우수 기업 1,000여 개를 모아 인큐베이팅했습니다. 기술, 사용자, 자본, 서비스의 4대 생태계를 연결하여 디지털 경제를 구축하기 위한 '시나리오 혁신 랩'과 '디지털 경제 상장 준비 캠프'를 지속적으로 진행합니다.산업 가속기.

홈밸리는 글로벌 기업을 위한 원스톱 국경 간 서비스 플랫폼으로, 창업보육기지, 홈밸리 인재, 홈밸리 기업 서비스, 홈밸리 문화 소통을 핵심 콘텐츠로 하여 시장 지향적 기업 서비스 플랫폼을 구축하는 데 전념하고 있습니다. 북미, 유럽, 아시아 등 해외 싱크탱크 및 시장 자원과 연계하여 산업단지 및 보육기지 운영, 창업 교육, 기업 컨설팅 서비스, 투자 및 자금조달, 해외 인재 귀환 개발, 글로벌 혁신 및 창업 활동 등의 서비스를 제공하고 중국 스타트업의 해외 진출을 지원합니다. 홈밸리는 재능을 발굴, 육성하고 실현하며, 뛰어난 젊은 재능들이 꿈을 실현하도록 돕고, 귀국자들이 사업을 시작하고 재능을 키울 수 있는 고향을 만드는 것을 목표로 합니다.