액체 냉각 대 공기 냉각: 50kW GPU 랙 가이드 (2025)
AI 워크로드의 기하급수적인 증가로 인해 데이터센터 냉각은 중요한 변곡점에 도달했습니다. GPU 랙 밀도가 50kW를 넘어서고 차세대 시스템은 100kW 이상을 요구함에 따라 기존의 공랭식 냉각은 근본적인 물리적 한계에 도달했습니다. 이 포괄적인 분석에서는 업계가 첨단 액체 냉각 기술을 통해 10~21%의 에너지 절감, 40%의 냉각 비용 절감, AI 혁명에 필요한 인프라를 구현하여 이러한 열 변화를 어떻게 헤쳐나가고 있는지 살펴봅니다.
공기가 병목 현상이 되는 경우
고밀도에서 공기 냉각의 실패는 점진적인 것이 아니라 절벽과도 같습니다. 랙당 50kW의 경우, 20°F 온도 차에서 냉각을 위해서는 분당 7,850입방피트(CFM) 의 공기 흐름이 필요하기 때문에 물리학적으로 용납할 수 없는 상황이 됩니다. 이를 100kW로 두 배로 늘리면 2~4평방인치에 불과한 서버 흡입구를 통해 허리케인급 강풍을 일으키는 15,700CFM의 바람이 필요합니다. 기본적인 열 제거 방정식(Q = 0.318 × CFM × ΔT)은 밀도가 증가함에 따라 필요한 공기 흐름은 선형적으로 증가하지만 팬 전력 소비는 팬 속도의 제곱에 따라 증가한다는 극복하기 어려운 문제를 드러냅니다. 공기 흐름이 10% 증가하면 33% 더 많은 팬 전력이 필요하므로 고밀도 공기 냉각을 경제적으로나 실질적으로 불가능하게 만드는 에너지 소비의 나선형 구조가 만들어집니다.
실제 증거는 이러한 이론적 한계를 확인시켜 줍니다. 문서화된 한 사례에 따르면 6kW의 250개 랙이 냉각에 실패했을 때 75초 만에 72°F에서 90°F 이상으로 올라간 것으로 나타났습니다. 평균 랙 밀도가 5~10kW인 기존 데이터센터는 최신 GPU 워크로드를 처리할 수 없습니다. 첨단 열기/냉기 통로 봉쇄가 있더라도 공기 냉각은 40kW 이상에서는 어려움을 겪으며, 봉쇄되지 않은 시스템은 열기 재순환으로 인해 20~40%의 용량 손실을 겪습니다. 고밀도 장비를 위해 명시적으로 만들어진 새로운 ASHRAE H1 환경 등급은 허용 온도를 18~22°C로 제한하는데, 이는 GPU 규모에서 공랭식 냉각으로는 유지할 수 없는 범위입니다.
액체 냉각 기술은 가능성을 변화시킵니다.
액체 냉각으로의 전환은 점진적인 개선을 넘어 열 제거에 대한 근본적인 재구상을 의미합니다. 물의 열전달 계수는 공기보다 3,500배나 높기 때문에 100kW 이상의 랙도 놀랍지 않고 일상적인 냉각 용량을 구현할 수 있습니다.
마이크로채널(27~100마이크론)을 갖춘 냉각판이 프로세서에 직접 부착된 다이렉트 투 칩 냉각이 혁신을 주도합니다. 40°C의 공급수 및 50°C의 회수수로 작동하는 이 시스템은 액체를 통해 랙 열의 70~75%를 제거하면서 1.02~1.03의 부분 PUE를 유지합니다. 최신 구현은 9kW 서버의 경우 분당 13리터의 유량으로 칩당 1.5kW 이상을 지원합니다. 메모리, 드라이브 및 보조 구성 요소에서 발생하는 나머지 25~30%의 열은 여전히 공기 냉각이 필요하므로 이러한 하이브리드 시스템은 대부분의 배포에 실용적인 선택입니다.
침수 냉각은 서버 전체를 유전체 유체에 담그는 방식으로 한계를 뛰어넘습니다. 미네랄 오일을 사용하는 단상 시스템은 갤런당 50~100달러의 비용이 들며 랙당 200kW를 일관되게 지원합니다. 2상 시스템은 비등과 응축을 통해 우수한 열 전달을 약속하지만 불화탄소 유체의 갤런당 가격이 500-1000달러에 달하고 3M이 환경 문제로 인해 2025년까지 생산을 중단하면서 채택이 동결되는 등 어려움에 직면해 있습니다. 이 기술의 복잡성(밀폐된 인클로저, 캐비테이션 위험, PFAS 규정)으로 인해 특수한 애플리케이션에 적용하는 데 한계가 있습니다.
냉각수 분배 장치(CDU)는 액체 냉각 인프라의 중추를 형성합니다. 최신 장치는 7kW 랙 마운트 시스템부터 CoolIT의 CHx2000과 같은 2,000kW 이상의 대형 장치까지 다양합니다. 주요 공급업체인 Vertiv, Schneider Electric, Motivair, CoolIT는 N+1 리던던시, 50미크론 여과, 부하 매칭을 위한 가변 주파수 드라이브를 갖춘 솔루션을 제공합니다. 2024년 10억 달러 규모의 CDU 시장은 액체 냉각의 빠른 채택을 반영하여 2031년까지 36억 달러 (20.5% CAGR)에 달할 것으로 예상됩니다.
리트로핏의 예술과 경제성
기존 데이터센터를 액체 냉각으로 전환하려면 신중한 오케스트레이션이 필요합니다. 가장 성공적인 접근 방식은 1~2개의 고밀도 랙으로 시작하여 일렬로 확장한 다음 수요에 따라 확장하는 단계적 마이그레이션을 따르는 것입니다. 기존 에어컨을 활용하는 액체 대 공기 CDU, 랙당 최대 40kW까지 냉각할 수 있는 후면 도어 열교환기, 최대 효율을 위한 다이렉트 투 칩 솔루션 등 세 가지 주요 개조 경로가 등장했습니다.
인프라 수정이 가장 큰 과제입니다. 전력 인프라가 종종 제한 요소가 되는데, 평균 부하 5~10kW용으로 설계된 시설은 냉각 능력에 관계없이 50kW 이상의 랙을 지원할 수 없습니다. 배관은 층고가 높은 환경이나 슬래브 구조의 드립 팬이 있는 오버헤드 설치에서 신중한 CFD 모델링이 필요합니다. 특히 침수 시스템의 경우 바닥 하중은 오래된 시설에서 구조 용량을 초과할 수 있습니다.
비용 분석 결과 높은 초기 투자 비용에도 불구하고 경제성이 뛰어난 것으로 나타났습니다. 캘리포니아 에너지 위원회의 연구에 따르면 17개 랙에 걸쳐 1,200대의 서버를 위한 전체 액체 냉각 시스템의 총 비용은 시설 개조를 포함하여 서버당 $470,557, 즉 $392에 불과한 것으로 나타났습니다. 연간 355MWh($0.11/kWh 기준 $39,155)의 에너지 절감으로 12년의 단순 투자 회수가 가능하지만, 최적화된 구현을 통해 2~5년의 투자 회수 기간을 달성할 수 있습니다. 슈나이더 일렉트릭의 분석에 따르면 4배 랙 압축을 통해 14%의 자본 절감 효과가 있으며, 운영 절감 효과에는 총 데이터 센터 전력의 10.2% 감소와 총 사용 효율의 15.5% 개선이 포함됩니다.
하이브리드 환경에서는 통합의 어려움이 배가됩니다. "완전 수냉식" 시설도 보조 구성 요소에 20~30%의 공기 냉각 용량이 필요합니다. 제어 시스템은 여러 냉각 기술을 조정하여 랙 입구 온도와 공급수 상태를 모두 모니터링해야 합니다. 서비스를 위해 열면 공랭식으로 페일오버해야 하는 후면 도어 열교환기는 이중화가 중요해지는 반면, 다이렉트 투 칩 시스템은 최대 부하에서 10초 미만의 라이드 스루 시간을 갖습니다.
파일럿에서 프로덕션까지
실제 구축 사례는 액체 냉각의 성숙도를 입증합니다. Meta는 4천만 평방 피트 이상의 데이터센터 공간에 공기 지원 액체 냉각을 구현하여 대규모 도입을 주도하고 있습니다. 카탈리나 랙 설계는 72개의 GPU로 140kW를 지원하며, 시설 전체의 액체 냉각 구축은 2025년 초까지 완료를 목표로 하고 있습니다. 이러한 혁신을 위해서는 AI에 최적화된 재설계를 위해 건설 중인 여러 데이터센터를 폐기해야 했으며, 새로운 아키텍처를 통해 31%의 비용 절감이 예상됩니다.
수냉식 TPU를 사용한 Google의 7년간의 여정은 업계에서 가장 포괄적인 데이터 세트를 제공합니다. 기가와트 규모의 2000개 이상의 TPU 포드에 폐쇄 루프 시스템을 배포하여 99.999%의 가동 시간을 달성하는 동시에 공기보다 30배 더 높은 열 전도성을 입증했습니다. 5세대 CDU 설계인 프로젝트 데슈츠는 오픈 컴퓨트 프로젝트에 기여하여 업계 전반의 채택을 가속화할 것입니다.
Microsoft는 물보다 낮은 122°F-50°C에서 끓는 유전체 유체를 사용하는 2상 침수 냉각으로 생산의 한계를 뛰어넘습니다. 이 기술을 통해 냉각 팬을 사용하지 않으면서도 서버 전력을 5~15% 절감할 수 있습니다. 2024년까지 물 사용량을 95% 줄이겠다는 약속은 폐쇄 루프, 무증발 시스템의 혁신을 주도하고 있습니다.
CoreWeave와 같은 전문 공급업체는 AI 워크로드를 위한 액체 냉각을 시연합니다. 2024년 말까지 4,000개의 GPU 배포를 계획하고 있는 이들은 경쟁사보다 20% 더 나은 시스템 활용률로 130kW 랙 밀도를 달성하고 있습니다. 레일에 최적화된 설계로 안정성을 개선하여 310만 GPU 시간을 절약하고 60일 이내에 H100 클러스터를 구축합니다.
AI 가속기의 열 수요 충족
GPU 사양을 통해 액체 냉각이 필수가 된 이유를 알 수 있습니다. NVIDIA H100 SXM5는 700W TDP로 작동하므로 최적의 성능을 위해 액체 냉각이 필요합니다. H200은 동일한 전력 엔벨로프를 유지하면서 4.8TB/s의 1.4배 더 높은 대역폭으로 141GB의 HBM3e 메모리를 제공하므로 그에 비례하는 열을 발생시킵니다. 곧 출시될 B200은 한계를 더욱 확장합니다: 수냉식 버전은 1,200W, 공냉식 버전은 1,000W로 정교한 열 관리가 요구되는 20PFLOPS FP4 성능을 제공합니다.
단일 랙에 72개의 블랙웰 GPU와 36개의 그레이스 CPU를 장착한 GB200 NVL72는공랭식 냉각 성능의 종착점을 나타냅니다. 140kW 랙 전력에서 새로 개발된 냉각판과 250kW CDU를 통한 필수 액체 냉각이 필요합니다. 시스템 수준의 고려 사항은 복잡성을 가중시킵니다: NVSwitch 인터커넥트는 각각 10~15W를 추가하고, 고속 메모리 및 전력 공급 시스템은 상당한 추가 열을 발생시킵니다.
JetCool의 기술 분석에 따르면 H100 SmartPlate는 0.021°C/W의 열 저항을 달성하여 60°C의 유입 온도를 지원하면서 공기 대체품보다 35°C 더 낮은 칩을 구동하는 등 뚜렷한 성능 차이를 보여줍니다. 이러한 온도 감소는 이론적으로 GPU 수명을 8배 연장하는 동시에 수 주간의 AI 트레이닝 실행에 필수적인 최대 성능을 지속적으로 유지할 수 있게 해줍니다.
2030년까지의 로드맵
업계는 모범 사례가 요구 사항으로 빠르게 진화하는 전환점에 서 있습니다. ASHRAE의 새로운 H1 환경 등급(18~22°C 권장)은 기존 가이드라인으로는 AI 워크로드를 수용할 수 없음을 인정합니다. 오픈 컴퓨트 프로젝트의 액체 냉각 표준은 상호 운용성을 촉진하고, 침수 요건 개정 2.10은 새로운 기술에 대한 자격 프로세스를 확립합니다.
2상 침수 냉각은 현재의 어려움에도 불구하고 2025~2027년에 주류로 채택될 가능성이 높습니다. 시장 전망에 따르면 칩당 1,500W 이상을 구현하는 우수한 열 전달에 힘입어 3억 7,500만 달러(2024년)에서 12억 달러(2032년)로 성장할 것으로 예상됩니다. 단종된 3M 유체를 대체하는 Accelsius NeuCool과 같은 혁신 기술은 성능을 유지하면서 환경 문제를 해결합니다.
AI 기반 최적화는 즉각적인 수익을 제공합니다. 구글 딥마인드는 실시간 학습을 통해 냉각 에너지를 40% 절감했으며, 지멘스의 화이트 스페이스 냉각 최적화 및 이와 유사한 플랫폼이 확산되고 있습니다. 이러한 시스템은 고장을 예측하고 냉각수 화학을 최적화하며 워크로드 패턴에 따라 동적으로 조정하는 기능으로, 공급업체의 91%가 5년 이내에 보편화될 것으로 예상하고 있습니다.
폐열 회수는 부채를 자산으로 전환합니다. 스톡홀름 데이터 파크는 2035년까지 도시 난방의 10%를 목표로 이미 데이터 센터 폐기물로 10,000가구에 난방을 공급하고 있습니다. 규제 압력은 채택을 가속화합니다: 독일은 2028년까지 20%의 열 재사용을 의무화하고 있으며, 캘리포니아 타이틀 24는 신축 건물에 회수 인프라를 의무화하고 있습니다. 히트 펌프 기술은 30~40°C의 폐열을 70~80°C로 높여 지역 난방에 사용함으로써 이전에는 버려지던 에너지에서 수익원을 창출합니다.
전환하기
성공적인 액체 냉각 배치를 위해서는 여러 차원에 걸친 전략적 계획이 필요합니다. 조직은 진입 장벽을 낮추기 위해 간단한 액체 대 공기 CDU로 시작하되, 전력 인프라를 먼저 평가해야합니다. 전기 용량이 충분하지 않으면 냉각 기술에 관계없이 레트로핏의 타당성을 인정받지 못합니다. 1~2개의 랙 파일럿으로 시작하면 확장하기 전에 학습할 수 있으며, 공냉식 전문 지식을 유지하는 것이 하이브리드 운영에서 여전히 중요합니다.
재무 모델링은 총 시스템 가치를 고려해야 합니다. 초기 투자 비용은 냉각 용량 1kW당 1,000~2,000달러이지만, 최적화된 구현에서는 시설 전력 27% 절감, 기존 시스템 대비 냉각 에너지 30% 절감, 공냉식에서는 불가능한 수익 창출형 AI 워크로드를 배포할 수 있는 능력 등 운영 절감 효과도 복합적으로 누릴 수 있습니다. 비효율적인 냉각기 통합을 우회하여 20~30%를 절감하고, 고밀도 애플리케이션에 집중하여 수익을 극대화하는 등 신중한 설계를 통해 2년 미만의 투자 회수를 달성하는 선도적인 구현 사례도 있습니다.
기술팀에는 새로운 역량이 필요합니다. 직원은 전통적인 HVAC 지식을 넘어 냉각수 화학, 누출 대응 프로토콜, 통합 제어 시스템을 이해해야 합니다. 공급업체와의 파트너십을 통해 전문 구성 요소에 대한 연중무휴 24시간 지원과 6개월 간격의 정기 예방 유지보수가 운영의 필수 요소로 자리 잡았습니다. 안전 프로토콜은 유전체 취급 및 압력 시스템 관리를 포함하도록 확장됩니다.
시장은 압도적인 모멘텀을 보이고 있습니다. 데이터센터 액체 냉각은 49억 달러(2024년)에서 27.6%의 연평균 성장률로 213억 달러(2030년 )로 성장할 것으로 예상됩니다. 2025~2026년에는 단상 직접 칩 냉각이 AI 워크로드의 표준이 되고, 2027년에는 2상 침수가 주류로 채택될 것입니다. 2030년까지 1MW 랙은 예외가 아닌 표준으로 고급 액체 냉각을 필요로 하게 될 것입니다.
결론
공랭식 냉각은 한계에 도달했다는 것은 물리학적으로 명백합니다. 50~100kW 랙 밀도에서는 근본적인 열역학적 제약으로 인해 액체 냉각이 바람직할 뿐만 아니라 필수입니다. 이러한 전환은 데이터센터 역사상 가장 중요한 인프라 전환으로 새로운 기술, 상당한 투자, 운영 혁신이 필요합니다. 하지만 에너지 21~40% 절감, 냉각 비용 40% 절감, 안정성 8배 향상, 그리고 가장 중요한 차세대 AI 인프라를 구축할 수 있다는 이점을 고려하면 이러한 변화는 불가피한 선택입니다. 오늘날 액체 냉각을 마스터하는 조직은 미래의 AI 혁신을 주도할 것이며, 뒤처지는 조직은 업계가 더 높은 컴퓨팅 밀도를 향해 경쟁할 때 뒤처지게 될 것입니다. 열의 벽에 도달한 지금, 액체 냉각이 이를 돌파하는 방법입니다.
참조
ACM 디지털 라이브러리. "침수 냉각 시스템을 갖춘 GPU 데이터센터의 에너지 효율적인 LLM 트레이닝." 제16회 미래 및 지속 가능한 에너지 시스템에 관한 ACM 국제 컨퍼런스 논문집. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.
AMAX. "NVIDIA 블랙웰 구성 비교." 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.
---. "NVIDIA 블랙웰 배포 시 고려해야 할 5가지 주요 사항." 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.
arXiv. "[1309.4887] iDataCool: 온수 냉각 및 에너지 재사용 기능을 갖춘 HPC." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.
---. "[1709.05077] 심층 강화 학습을 통한 친환경 데이터 센터의 냉각 최적화 혁신." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.
Attom. "Ashrae의 새로운 열 가이드라인 업데이트: 새로운 고밀도 트렌드." 전문가용 친환경 프리패브 데이터 센터. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.
칠다인. "고전력 액체 냉각 설계: 500kW 랙을 위한 다이렉트 투 칩 솔루션 요구 사항." 칠다인 | 액체 냉각. July 29, 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.
나침반 데이터센터. "데이터 센터 냉각이란?" 2025. https://www.compassdatacenters.com/data-center-cooling/.
컨버지 다이제스트. "메타, OCP 서밋 2024에서 AI 인프라 업그레이드 개요 발표." 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.
Core Winner LTD. "액체 냉각에 대한 종합 가이드: 고성능 데이터 센터 및 AI 배포의 미래." 2025. https://www.corewinner.com/en/blog/detail/52.
CoreWeave. "2025년 기업을 위한 AI 클러스터 구축." 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.
---. "AI 모델과 혁신을 위한 GPU." 2025. https://www.coreweave.com/products/gpu-compute.
사이버 방어 어드바이저. "AI 기반 예측 유지보수: 데이터 센터 신뢰성의 미래." 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.
데이터 센터 카탈로그. "메타는 데이터 센터 인프라를 액체 냉각으로 전환할 계획입니다." 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
데이터 센터 역학. "데이터 센터의 액체 냉각에 대한 소개." 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.
---. "하이퍼스케일러가 OCP EMEA에서 1MW 랙을 준비하고, Google은 새로운 CDU를 발표합니다." 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.
---. "새로운 ASHRAE 지침은 효율성 추진에 도전합니다." 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.
---. "엔비디아의 CEO는 곧 출시될 시스템이 수냉식일 것이라고 확인했습니다." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.
---. "다이렉트 투 칩 액체 냉각으로 데이터 센터 효율성 최적화." 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.
---. "2상 냉각은 EPA 규칙과 3M의 PFAS '영구 화학 물질' 퇴출로 인해 타격을 입을 것입니다." 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.
데이터 센터 프론티어. "2025년 데이터 센터 산업을 형성할 8가지 트렌드." 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.
---. "데이터 센터에 수냉식 서버를 배포하는 모범 사례." 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.
---. "Google, 물 절약을위한 새로운 '기후 의식'냉각 기술 개발." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.
---. "Google, AI 데이터 크런칭을 위해 액체 냉각으로 전환." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.
---. "메타, 데이터 센터 인프라를 액체 냉각으로 전환할 계획." 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
---. "메타, AI 기반 미래를 위한 새로운 데이터센터 설계 미리보기." 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.
---. "OCP 2024 스포트라이트: Meta, 140kW 수냉식 AI 랙 출시, Google, 하이퍼스케일러 GPU를 위한 로봇 공학에 주목하다." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.
---. "고밀도 환경에서 공기 냉각의 경계를 넓히다." 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.
---. "Report: 메타 계획, AI 중심 데이터 센터 재설계에서 액체 냉각으로의 전환." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.
---. "오픈 컴퓨트 프로젝트(OCP)에서 액체 냉각의 중요성." 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.
---. "폐열 활용은 넷제로 에너지를 향한 데이터 센터 업계의 다음 단계입니다." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.
---. "지속 가능한 AI를 위한 NVIDIA의 고급 H100 및 H200 GPU를 지원하는 주타코어의 하이퍼쿨 액체 냉각 기술." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.
데이터 센터 지식. "데이터 센터 리트로핏 전략." 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.
---. "하이브리드 냉각: 데이터 센터의 완전한 액체 냉각을 위한 다리." 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.
데이터 센터 검토. "데이터센터 폐열 최대한 활용하기." June 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.
데이터센터. "Google과 OpenAI의 클라우드 파트너십에서 CoreWeave의 역할은 AI 인프라를 재정의합니다." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.
Dell. "데이터 센터를 공냉식에서 액체 냉각으로 전환해야 하는 시기." 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.
디지털 인프라 네트워크. "AI를 위한 Google의 메가와트급 움직임: 전력 및 냉각 개선." 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.
Enconnex. "데이터 센터 액체 냉각 대 공기 냉각." 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.
메타의 엔지니어링. "메타의 개방형 AI 하드웨어 비전." 2024년 10월 15일. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.
포춘 비즈니스 인사이트. "2상 데이터 센터 액체 침수 냉각 시장, 2032년." 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.
구글 클라우드. "OCP EMEA 서밋에서 1MW IT 랙 및 액체 냉각 지원." Google 클라우드 블로그. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.
GR 냉각. "고급 액체 냉각 탐색: 침수 대 칩 직접 냉각." 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.
---. "2상 대 단상 침수 냉각." 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.
HDR. "다이렉트-투-칩 액체 냉각." 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.
HiRef. "하이브리드 룸: 데이터센터의 공랭 및 액체 냉각을 위한 통합 솔루션." 2025. https://hiref.com/news/hybrid-rooms-data-centers.
HPCwire. "H100 Fading: 엔비디아, H200으로 2024 하드웨어 선전." 11월 13일, 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.
IDTechEx. "데이터 센터를 위한 열 관리 2025-2035: 기술, 시장 및 기회." 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.
JetCool. "데이터 센터를 위한 직접 액체 냉각 대 침수 냉각." 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.
---. "NVIDIA H100 GPU용 액체 냉각 시스템." 2025. https://jetcool.com/h100/.
마룬몽키스. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html.
Microsoft. "프로젝트 나틱 2단계." 2025. https://natick.research.microsoft.com/.
Microsoft 뉴스. "데이터 센터 서버를 냉각하기 위해 Microsoft는 끓는 액체로 전환합니다." 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.
노텍 데이터 센터 냉각 솔루션. "폐열 활용은 넷제로 에너지를 향한 데이터 센터 산업의 다음 단계입니다." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.
NVIDIA. "H200 텐서 코어 GPU." 2025. https://www.nvidia.com/en-us/data-center/h200/.
오픈 컴퓨트 프로젝트. "오픈 컴퓨트 프로젝트 재단, AI 이니셔티브를 위한 오픈 시스템 확장." 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.
P&S 인텔리전스. "침수 냉각 시장 규모, 점유율 및 동향 분석, 2032년." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.
PR 뉴스와이어. "슈퍼마이크로, 엔비디아 블랙웰 및 엔비디아 HGX H100/H200용 랙 스케일 플러그 앤 플레이 수냉식 AI 슈퍼클러스터 출시." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.
---. "지속 가능한 AI를 위한 NVIDIA의 고급 H100 및 H200 GPU를 지원하는 주타코어의 하이퍼쿨 액체 냉각 기술." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.
리탈 "직접 칩 냉각이란 무엇이며, 액체 냉각이 미래입니까?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.
사이언스다이렉트. "데이터 센터의 액체 냉각: 당면 과제에 직면한 필수품." 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.
세미분석. "데이터센터 해부학 1부: 전기 시스템." 10월 14일, 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.
---. "데이터 센터 해부학 2 부 - 냉각 시스템." February 13, 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.
---. "멀티 데이터센터 교육: 구글의 인프라를 이기기 위한 OpenAI의 야심찬 계획." 2024년 9월 4일. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.
테크파워업. "NVIDIA H100 PCIe 80GB 사양." TechPowerUp GPU 데이터베이스. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.
TechTarget. "데이터 센터의 액체 냉각 대 공냉식." 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.
Unisys. "선도적인 LLM 개발자가 액체 냉각 붐을 일으키는 방법." 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.
업사이트 기술. "랙 밀도와 Delta T가 공기 흐름 관리 전략에 미치는 영향." 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.
---. "AI를 수용하기 위해 데이터 센터를 개조해야 할 때와 그렇지 않을 때." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.
가동 시간 연구소. "데이터 센터 냉각 모범 사례." 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.
---. "액체 냉각에 대한 성능 기대치를 현실적으로 점검해야 합니다." 가동 시간 연구소 블로그. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.
유틸리티 심층 분석. "데이터 센터 냉각의 2025년 전망." 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.
Vertiv. "데이터 센터에 액체 냉각 배치: 냉각수 분배 장치(CDU) 설치 및 관리." 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.
---. "데이터 센터를 위한 액체 및 침수 냉각 옵션." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
---. "데이터 센터를 위한 액체 냉각 옵션." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
---. "공냉식 데이터 센터에 액체 냉각을 도입할 때 PUE 및 에너지 소비에 미치는 영향의 정량화." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.
---. "HPC 인프라의 다이렉트 투 칩 냉각에 대한 이해: 액체 냉각에 대한 심층 분석." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.
---. "Vertiv™ 쿨페이즈 CDU | 고밀도 솔루션." 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.
WGI. "AI 및 데이터 센터 냉각." 2025. https://wginc.com/cooling-down-ai-and-data-centers/.