Back to Headlines

구글, Hot Chips 2025에서 공개한 데이터센터용 액체 냉각 기술로 AI 시대의 열 관리 혁신 제시

3일 전

구글이 2025년 핫칩스(Hot Chips)에서 데이터센터 규모의 액체 냉각 기술을 공개하며 AI 성능 확장에 따른 열 관리 도전에 대한 해결책을 제시했다. 최근 AI 칩의 전력 소모와 열 발생이 급증하면서 공기 냉각은 한계에 다다랐고, 구글은 물의 열전도율이 공기보다 약 4000배 높다는 점을 활용해 TPUs(머신러닝 가속기)용 대규모 액체 냉각 시스템을 도입했다. 2018년 실험을 시작한 이 기술은 현재 랙 단위의 냉각 회로를 통해 여러 서버를 연결하고, 6개의 냉각 분배장치(CDU)가 랙을 구성해 열을 시설급 냉각수와 교환한다. CDU는 유연한 호스와 빠른 분리 커플러를 사용해 유지보수를 용이하게 하며, 5개의 CDU만 작동해도 충분한 냉각 능력을 확보해 한 대의 장치 점검 시에도 다운타임 없이 운영 가능하다. TPUv4는 전력 소비가 TPUv3보다 1.6배 증가했고, 이에 따라 냉각 효율을 높이기 위해 뚜껑을 제거한 베어다이(裸die) 설계를 채택했다. 이는 PC 애호가들이 히트스프레더를 제거해 성능을 끌어내는 ‘델리딩’과 유사하다. 또한 분기형 냉각판을 도입해 냉각 효율을 개선했으며, 액체 냉각 펌프의 전력 소모는 공기 냉각 팬 대비 5% 미만으로 매우 낮다. 유지보수 측면에서는 누출, 미생물 증식 등의 위험을 방지하기 위해 엄격한 검사, 실시간 경고 시스템, 정기적 필터링, 절차 기반 대응 체계를 운영한다. 이는 개인 PC의 수동적 관리와는 차원이 다른 체계적 접근이다. NVIDIA와 한국의 Rebellions AI도 GB300 서버와 ML 가속기 데모에서 외부 냉각 연결과 수냉 블록을 공개하며, 액체 냉각이 데이터센터의 필수 기술로 자리 잡고 있음을 보여줬다. AI 확산이 지속되는 한, 액체 냉각은 불가피한 선택이 될 전망이다.

Related Links