Back to Headlines

오픈AI, 글로벌 규모 컴퓨팅의 원칙 제시…에이전트 기반 AI 시대를 위한 인프라 혁신 선언

5일 전

오픈AI의 하드웨어 책임자 리처드 후는 AI 인프라 서밋에서 글로벌 규모의 컴퓨팅이 차세대 생성형AI의 핵심이라고 강조했다. 그는 모델 성능 향상을 위해 계산량이 기하급수적으로 증가하고 있으며, 이는 단순한 데이터센터를 넘어 전 세계적으로 분산된 초거대 컴퓨팅 시스템 구축이 필요함을 시사했다. 특히 GPT-4 이후 모델이 10²⁷ 수준의 연산량을 요구할 것으로 전망되며, MMLU 성능은 거의 100%에 도달해 테스트의 한계를 드러내고 있다고 분석했다. 후는 AI가 인간의 대화 수준을 넘어서 ‘에이전트’가 스스로 작업을 수행하는 ‘지속적 세션’ 환경으로 진화할 것이라며, 이를 위해 상태 유지형 컴퓨팅과 낮은 지연 시간의 네트워킹이 필수라고 강조했다. 장기 실행되는 에이전트 간 실시간 협업이 가능해야 하며, 이는 메모리, 네트워크, 보안 인프라 전반에 걸친 혁신을 요구한다. 또한 모델의 안정성과 안전성 문제인 ‘어라이언스(Alignment)’를 하드웨어 수준에서 해결해야 한다고 주장하며, 실시간 종료 스위치, 칩 내 보안 영역, 이상 패턴 감지 기능 등을 하드웨어에 내장해야 한다고 제안했다. 그는 현재의 인프라가 에이전트 기반 AI에 적합하지 않으며, 새로운 벤치마크와 지속적인 관측 기능을 갖춘 하드웨어 설계가 필요하다고 강조했다. 오픈AI는 차세대 가속기 개발과 ‘스타거레이트(Stargate)’ 프로젝트를 통해 이 목표를 실현할 계획이며, 반도체, 패키징, 클라우드 기업 간 협력이 필수적이라고 밝혔다.

Related Links