랙당 140kW를 뿜는 엔비디아 GB200의 등장은 데이터센터의 생존 공식을 바람에서 물로 강제 전환시켰으며, MS와 xAI 등 빅테크는 이미 서버를 냉각액에 담그며 열과의 전쟁에 돌입했다. 이제 AI 패권은 칩 성능을 넘어 열관리 능력에 달렸으며, 전력 효율이 곧 막대한 수익이 되는 시대가 되고 있습니다.
데이터센터가 녹아내리고 있다
“GPU 10만 장을 돌리는 순간, 매달 강남 빌딩 한 채 값을 한전에 바쳐야 합니다.”
현재, AI 업계의 화두는 더 이상 누가 더 똑똑한 모델을 만드느냐가 아닙니다. 누가 이 전력량을 감당하고 살아남느냐입니다.
엔비디아(NVIDIA)의 괴물, GB200 NVL72 1개 랙(Rack)이 소모하는 전력은 실측 기준 120~140kW에 달합니다. 과거 H100 시절 랙당 40kW도 “뜨겁다”고 난리 쳤던 게 불과 2년 전입니다.

이것은 단순한 비용 문제가 아니며, 생존의 문제입니다. 오늘은 2025년 AI 전력난의 유일한 해법을 액체 냉각 기술로 예상되고 있습니다.
1. AI 칩 전력 폭증
불과 3년 사이, 칩 하나의 열밀도(TDP)는 2배 이상 뛰었습니다. 공기로 열을 식히는 방식은 물리적 한계점인 랙당 50kW를 이미 2024년에 넘어섰습니다.
| 연도 | 주요 AI 칩셋 | TDP (칩당 전력) | 랙당 평균 전력 밀도 | 냉각 한계 상황 |
| 2022 | NVIDIA A100 | 400W | 10~15 kW | 공랭 여유 |
| 2023 | NVIDIA H100 | 700W | 30~40 kW | 공랭 한계 도달 (핫스팟 발생) |
| 2024 | NVIDIA B200 | 1,000W+ | 60~80 kW | 공랭 불가능 (하이브리드 필수) |
| 2025 | GB200 NVL72 | 시스템당 120kW | 120~140 kW | 액체 냉각(DLC) 필수 |
| 2027(E) | Rubin (R100) | 예측불가 | 200 kW+ | 액침 냉각 전면 도입 예상 |
현재, 100kW 이상의 고밀도 랙을 공랭으로 식히려면 데이터센터 공간의 40%를 에어컨(항온항습기)으로 채워야 합니다.
2. 살아남는 냉각 기술 4종 완벽 비교
공랭식 냉각은 이미 끝났다고 봐야 됩니다.
| 방식 | 찬 바람 순환 | 랙 뒷문(Door)에 냉각수 코일 | 칩 위에 콜드플레이트 부착 | 서버를 특수 용액에 ‘풍덩’ |
| 열 제거 | ~30 kW/랙 | ~60 kW/랙 | ~150 kW/랙 | 200 kW+/랙 (무제한) |
| PUE | 1.5 ~ 1.7 | 1.3 ~ 1.4 | 1.15 ~ 1.2 | 1.03 ~ 1.1 |
| 초기비용 | 낮음 (기존) | 중간 | 높음 (배관 공사) | 매우 높음 (용액+탱크) |
| 국내현황 | 레거시 센터 | 과도기적 도입 | 엔비디아 표준 (대세) | SKT, 정유사 파일럿 |
| 대표기업 | – | 모티브, 베르티브 | 슈퍼마이크로, 쿨IT | GRC, SK엔무브, GS칼텍스 |
- PUE (Power Usage Effectiveness) : 1에 가까울수록 효율적이며 PUE 1.5는 전기의 33%를 냉각에 낭비한다는 뜻입니다.
3. 2025년 국내외 실제 도입 사례 (PUE 1.1의 증거들)
이미 글로벌 빅테크는 물과 기름으로 서버를 식히고 있습니다.
일론 머스크는 2025년 GB200 대량 도입을 앞두고 슈퍼마이크로의 DLC(수랭) 방식을 전면 채택했습니다. 그 결과, 세계에서 가장 빠르게 10만 장 규모의 클러스터를 구축했습니다. 그는 “전통적인 공랭은 시간 낭비”라고 판단한 겁니다.
마이크로소프트는 더 과격합니다. 물 없는 데이터센터를 선언하며 2상 액침 냉각(끓는 액체로 식히는 방식)을 테스트 중입니다. 서버 고장률이 20%나 줄었다는 데이터까지 확보했죠.
한국의 움직임 (Naver & Kakao) 네이버는 세종 데이터센터에 DLC(직접 냉각) 구역을 준비했고, 삼성물산과 손잡고 2026년까지 차세대 액침 냉각 시스템을 테스트합니다. 카카오 역시 안산 센터에 생성형 AI 전용 구역을 만들며 물을 끌어들이는 것을 검토 중입니다.
- xAI (일론 머스크의 Memphis 슈퍼클러스터):
- 규모 : H100 10만 장 → 2025년 GB200 대량 추가.
- 방식 : 슈퍼마이크로의 DLC(Direct Liquid Cooling) + 대형 냉각탑.
- 결과 : 세계에서 가장 빠르게 구축된 AI 데이터센터 기록.
- 마이크로소프트 :
- 발표 : Microsoft Build 2025에서 “모든 신규 AI 데이터센터는 물 없는(Water-free) 액침 냉각 테스트 중” 선언.
- 성과 : PUE 1.1 미만 달성, 서버 고장률 20% 감소 확인.
- 네이버 (Naver) :
- 특징 : 하이브리드 냉각 시스템 도입. 일부 고밀도 구역에 직접 칩 액냉(DLC) 적용 준비 완료.
- 전략 : 2026년까지 액침 냉각 테스트베드 확장 계획 (삼성물산 협업).
- 카카오 (Kakao) – 안산 데이터센터:
- 현황 : 고효율 프리쿨링 위주이나, 2025년 하반기 생성형 AI 전용 구역에 DLC 도입 검토 중.
4. 액침 냉각 vs 직접 칩 액냉(DLC): 진짜 승자는?
2025년 현재, 승자는 직접 칩 액냉(DLC)입니다. 하지만 2027년은 다릅니다.
- 엔비디아의 선택 (DLC) : 젠슨 황은 GB200 발표 당시 “Blackwell은 액체 냉각(DLC)을 기본으로 설계했다”고 못 박았습니다. 보증(Warranty) 문제 때문에 현재는 DLC가 표준입니다.
- 액침 냉각의 단점 : 용액 가격(불소계 용액 kg당 10만 원 호가), 유지보수의 어려움(서버 꺼낼 때마다 기름 범벅), 무거운 무게(바닥 하중 보강 필수).
- 미래 : 하지만 칩 발열이 200kW를 넘어가면 DLC로도 벅찹니다. 결국 2상 액침 냉각(Two-Phase Immersion)이 최종 목적지가 될 것입니다.
반도체 집적도가 올라갈수록 물리적 한계인 ‘발열’은 기하급수적으로 늘어납니다. 모두가 화려한 AI 모델과 칩에 열광할 때, 그 칩이 타버리지 않게 만드는 열관리와 전력 효율화(PUE) 기술이야말로 AI 산업의 숨겨진 해자가 될 것입니다.
공랭은 죽었습니다. 앞으로 3년, 데이터센터의 패러다임이 ‘바람’에서 액체로 바뀌는 거대한 인프라 교체 주기가 도래합니다.
단순히 액침냉각 관련주가 뜬다는 차원이 아닙니다. 전기를 덜 먹는 기술이 곧 순이익이 되는 시대가 온 것입니다.
역사는 언제나 동일한 이야기를 반복합니다. 1999년에는 광섬유였고, 2017년에는 전기였으며, 2021년에는 GPU였습니다. 2025년의 반짝이는 것은 더 이상 GPU가 아니라, 그 칩이 녹아내리지 않도록 차가운 액체를 흘려보내는 파이프, 그리고 그 파이프를 설계하고 깔아주는 손입니다. 그것이 인류가 수천 년 동안 증명해 온 부의 법칙입니다.