CoreWeave: AI 인프라 혁명 - 암호화폐 채굴 스타트업이 230억 달러 규모의 인공지능의 중추가 된 방법
코어위브는 암호화폐 채굴 업체에서 출발해 전례 없는 규모로 GPU 슈퍼컴퓨터를 운영하면서 기존 하이퍼스케일러와 차별화되는 액체 냉각 및 베어메탈 아키텍처를 개척한 세계에서 가장 전문화된 AI 클라우드 인프라 제공업체로 성장했습니다. 2017년 이더리움 채굴에서 OpenAI의 GPT 모델 지원으로 전환한 코어 위브는 실리콘밸리에서 가장 극적인 전환을 이루었으며, 75억 달러 규모의 부채 조달(2024년 5월)과 230억 달러 규모의 2차 매각(2024년 10월), 2024년 737%의 폭발적인 매출 성장, SemiAnalysis의 새로운 ClusterMAX 프레임워크에서 최고 등급으로 선정되었으며, 보고서는 코어위브의 테넌트 격리, 베어 메탈 Kubernetes 및 운영 성숙도를 강조하고 있습니다.
코어웨이브가 구축한 기술적 해자는 가속 컴퓨팅에만 최적화된 전문 아키텍처를 활용합니다. 기존 클라우드 제공업체가 범용 워크로드와 GPU 컴퓨팅의 균형을 맞추는 반면, CoreWeave는 스택의 모든 계층을 AI 및 HPC 애플리케이션을 위해 특별히 구축했습니다. 베어메탈 Kubernetes 아키텍처는 가상화 오버헤드를 완전히 제거하며, 다이렉트 투 칩 액체 냉각을 통해 공냉식 시설에서는 불가능한 130킬로와트 랙 밀도를 구현할 수 있습니다. 이러한 근본적인 아키텍처의 이점은 토폴로지 인식 스케줄링 및 인피니밴드 우선 네트워킹과 결합되어 호퍼급 GPU에서 50% 이상의 모델 플롭스 활용률(내부 벤치마크에 따르면 퍼블릭 기반 모델 기준선보다 약 20% 높은 수치)을 제공한다고 CoreWeave는 보고하고 있습니다.
코어웨이브와 엔비디아의 공생 관계는 일반적인 공급업체 파트너십을 뛰어넘어 2025년 3월 현재 약 6%의 지분을 보유하고 있으며, 혁신적인 아키텍처의 초기 배포를 위해 지속적으로 코어웨이브를 선택하고 있습니다. 코어웨이브는 GB200 NVL72 시스템(2025년 2월)과 함께 가장 먼저 일반에 제공되었고, GB300 NVL72 시스템(2025년 7월 3일)을 가장 먼저 배포했습니다. GB300 배포는 NVIDIA가 "추론 모델 추론 결과의 최대 50배 향상"을 약속하지만, 이는 피어 리뷰 벤치마크가 아닌 벤더 마케팅을 나타냅니다. (NVIDIA 마케팅 지침, 독립적인 벤치마크 보류 중).
코어웨이브는 분기 매출 12억 1,000만 달러(2025년 2분기)를 달성하고 301억 달러의 계약 잔고를 유지하며 Microsoft(2024년 매출의 62% 차지), OpenAI(최대 119억 달러 계약 및 40억 달러 확장) 및 대규모 학습과 추론에 최적화된 성능 수준을 필요로 하는 기타 AI 리더들로부터 앵커 고객 약정을 확보하는 등 재무 지표는 전문 AI 인프라에 대한 시장의 엄청난 수요를 잘 보여주고 있습니다. 2025년 3월 주당 40달러의 기업공개로 약 15억 달러의 자금을 조달한 CoreWeave는 전 세계 AI 컴퓨팅 수요가 가속화됨에 따라 가치를 창출할 수 있는 상장기업으로 자리매김했습니다.
그러나 이러한 폭발적인 성장의 이면에는 상당한 실행 리스크가 존재하며, CoreWeave의 부채는 110억 달러가 넘고 이자 비용은 25년 2분기 2억 6700만 달러 (24년 2분기 6700만 달러 )로, 대차대조표가 확장됨에 따라 연간 10억 달러 이상의 실행률이 발생할 것으로 예상됩니다. 이러한 자본 구조는 하이퍼스케일러 경쟁에서 앞서 인프라를 구축하기 위한 경쟁에서 완벽한 실행을 요구합니다. 2024년 매출의 62%를 Microsoft가 차지하고, 상위 2개 고객이 77%를 차지하는 등 고객 집중도가 매우 높습니다.
이 심층 분석에서는 코어위브가 어떻게 첫 번째 원칙에서 특화된 AI 인프라를 설계했는지, 왜 하이퍼스케일러 경쟁에서 기술적 우위가 의미가 있는지, 공격적인 확장 전략이 엑사스케일 컴퓨팅 인프라 구축의 자본 집약적인 현실을 헤쳐나가면서 기술 리더십을 유지할 수 있는지 살펴봅니다. 기술 문서, 성능 벤치마크, 업계 분석을 통해 뉴저지 차고에서 암호화폐 채굴을 시작한 한 회사가 어떻게 인공지능 개발을 위한 핵심 인프라로 자리매김했는지, 그리고 이러한 궤도에 영향을 미칠 수 있는 재정적 과제는 무엇인지 살펴봅니다.
코어위브의 장점: AI 워크로드를 위해 특별히 설계된 인프라
AI 워크로드에는 기존 클라우드 컴퓨팅과는 근본적으로 다른 인프라가 필요하다는 CoreWeave의 근본적인 통찰력은 이제 학습, 미세 조정, 추론 워크로드 전반에 걸쳐 측정 가능한 성능 이점을 제공하는 아키텍처 결정을 이끌어냈습니다. 하이퍼스케일러들이 웹 애플리케이션, 데이터베이스, 엔터프라이즈 소프트웨어 최적화에 수천억을 투자하는 동안 CoreWeave는 대규모 언어 모델과 신경망에는 범용 데이터센터가 일관되게 제공하기 어려운 극한의 메모리 대역폭, 초저지연 상호 연결, 지속적인 열 발산이 필요하다는 사실을 인식했습니다.
기술적 차별화는 GPU 워크로드에만 최적화된 완전한 수직 통합에서 시작됩니다. 코어웨이브의 베어메탈 쿠버네티스 접근 방식은 가상화 레이어 없이 GPU, CPU, 네트워크 및 스토리지 리소스에 대한 직접 하드웨어 액세스를 제공합니다. 토폴로지 인식 스케줄링은 GPU 간 통신 지연 시간을 최소화하며, 전용 InfiniBand 패브릭은 GPU 연결당 400Gb/s를 제공합니다. 최상위 하이퍼스케일러 GPU 인스턴스도 이제 고대역폭 네트워킹을 제공한다는 점에 주목할 필요가 있습니다. Google Cloud의 A3 인스턴스는 VM당 3.2Tbps, Azure의 ND H100 v5는 1.6~3.2Tbps급 연결을 제공하며, AWS P5 클러스터는 SR-IOV/EFA를 통해 3200Gbps의 인스턴스 네트워킹을 제공합니다. 이 차이는 원시 링크 속도보다는 CoreWeave의 클러스터 토폴로지, 스케줄러 배치 최적화, 랙 규모에서의 수냉식 열 관리에 더 큰 차이가 있습니다.
NVIDIA가 발표한 벤치마크에 따르면 Cohere는 이전 세대 Hopper GPU에 비해 CoreWeave의 GB200 NVL72 시스템에서 최대 3배 빠른 트레이닝을 달성했지만, 이는 클라우드 간 비교가 아닌 세대별 하드웨어 개선을 나타냅니다. 다른 고객 성능에 대한 주장은 업계에서 논의되고 있지만 회사 자체의 공개적인 검증이 부족합니다.
비즈니스 모델의 혁신은 수백 개의 서비스를 제공하는 대신 GPU 컴퓨팅에만 집중함으로써 CoreWeave는 AI 워크로드에 맞게 운영의 모든 측면을 최적화할 수 있다는 점에서 똑같이 중요한 의미를 지니고 있습니다. 이러한 전문화를 통해 새로운 세대의 하드웨어를 신속하게 배포하고(기존 클라우드의 경우 몇 분 걸렸던 것에 비해), 관리 오버헤드를 줄여 운영을 간소화하며, 성능을 우선시하는 GPU 네이티브 고객과 직접 관계를 맺고, 예약 인스턴스, 온디맨드, 2025년 말 출시되는 현물 가격 등 유연한 소비 모델을 제공할 수 있습니다.
하이퍼스케일러의 경쟁이 치열해지면서 AWS, Google Cloud, Microsoft Azure 모두 향상된 네트워킹 및 베어메탈 옵션으로 GPU 제품을 확장하는 등 AI 인프라의 전략적 중요성을 인식함에 따라 경쟁이 심화되고 있습니다. 하지만 코어위브의 특화된 접근 방식과 NVIDIA의 최신 하드웨어를 통한 선발주자의 이점은 차별화를 만들어냅니다. 2025년 3~4월 현재 SemiAnalysis의 플래티넘 등급인 ClusterMAX 등급을 유일하게 받은 CoreWeave는 기술 리더십을 입증하고 있으며, 이 등급 시스템은 3~6개월마다 업데이트를 계획하고 있으며 경쟁 역학 관계는 계속 진화하고 있습니다.
이더리움 채굴부터 기초 모델 트레이닝까지: 예상치 못한 기원 이야기
암호화폐 채굴 업체에서 AI 인프라 강자로 변신한 CoreWeave는 2017년 공동 창립자인 마이클 인트레이터, 브라이언 벤투로, 브랜닌 맥비가 자신들의 GPU 전문성이 암호 퍼즐을 푸는 것보다 더 가치 있는 용도로 사용될 수 있다는 것을 인식하면서 시작되었습니다. 뉴저지 위호켄에 기반을 둔 이 회사는 처음에는 이더리움 채굴에 집중하여 수천 개의 GPU를 축적하는 한편, 나중에 AI 워크로드에 매우 유용한 맞춤형 냉각 솔루션과 오케스트레이션 소프트웨어를 개발했습니다.
이더리움이 지분 증명으로 전환하면서 GPU 채굴이 완전히 사라질 위기에 처했던 2019년이 결정적인 순간이었습니다. 코어위브의 창립자들은 대부분의 채굴자처럼 자산을 청산하는 대신, 기존 클라우드의 하드웨어에 액세스하는 데 어려움을 겪는 머신러닝 연구자들에게 GPU 컴퓨팅을 제공하는 새로운 시장 기회를 발견했습니다. 초기 고객으로는 실험을 위해 버스트 컴퓨팅이 필요한 학술 기관, 영화용 CGI를 렌더링하는 시각 효과 스튜디오, 컴퓨터 비전 모델을 교육하는 스타트업 등이 있었습니다.
2020년 팬데믹으로 인해 원격 근무가 클라우드 렌더링에 대한 수요를 증가시키는 동시에 산업 전반에 걸쳐 AI 도입이 촉진되면서 CoreWeave의 전환이 가속화되었습니다. 이 회사는 리스크 모델링을 위한 대규모 병렬 처리를 필요로 하는 헤지펀드와 첫 번째 주요 기업 계약을 체결하여 암호화폐 투기 이상의 비즈니스 모델을 검증했습니다. 코어위브는 연말까지 단백질 폴딩 시뮬레이션부터 실시간 비디오 트랜스코딩까지 다양한 워크로드를 처리하는 10,000개 이상의 GPU를 운영했습니다.
2022년 OpenAI는 대규모 훈련에 최적화된 구성인 InfiniBand 네트워킹으로 수천 개의 A100 GPU를 신속하게 배포할 수 있는 CoreWeave의 능력에 매료되어 GPT 모델 훈련을 위한 인프라 파트너로 선정하면서 획기적인 전환점을 맞이했습니다. 성공적인 배포를 통해 전례 없는 규모로 코어웨이브의 아키텍처가 검증되었고, 추가 기반 모델에 대한 확장 계약으로 이어졌습니다. 이 앵커 고객은 수익 안정성과 기술적 신뢰성을 모두 제공함으로써 다른 AI 선구자들을 끌어들였습니다.
벤처 캐피털은 AI 공급망에서 코어위브의 전략적 위치를 인정하여 2022년 2억 달러 규모의 시리즈 B를 주도한 마그네타 캐피털(Magnetar Capital)에 이어 빠른 가치 성장을 이끌었습니다. 2024년 5월에 블랙스톤, 코튜 등으로부터 75억 달러 규모의 부채를 조달한 것은 기술 역사상 가장 광범위한 민간 신용 시설 중 하나로, 폭발적인 수요를 충족하기 위한 공격적인 인프라 확장을 가능하게 했습니다.
기술적 위험을 수용하고 효율성을 최적화하며 연중무휴 24시간 안정적으로 운영되는 암호화폐 채굴의 문화적 DNA는 AI 인프라 요건에도 완벽하게 적용되었습니다. GPU에서 최대 해시율을 끌어낸 엔지니어들이 이제 텐서 연산을 최적화하고 있으며, 변동성이 큰 암호화폐 시장에서 수익을 창출하는 데 필요한 재무 규율은 자본 집약적인 인프라 비즈니스를 탐색하는 데 도움이 되고 있습니다. 이 예상치 못한 이야기는 기술 혁신이 기존 산업이 아닌 인접 산업에서 발생하는 경우가 많으며, 기존 사고방식의 제약을 받지 않는 외부인이 제1원칙에 입각해 특화된 솔루션을 설계한다는 사실을 보여줍니다.
복잡한 자본 구조는 기회와 위험을 모두 반영합니다.
코어위브의 자본 구조는 AI 인프라의 막대한 기회와 하이퍼스케일 경쟁의 자본 집약적 특성을 모두 반영하고 있습니다. 자금 조달 내역에는 약 14%의 이자율로 75억 달러의 부채 시설(2024년 5월), 여러 라운드에 걸쳐 총 10억 달러가 넘는 주식 자금 조달, 230억 달러에 달하는 2차 주식 매각(2024년 10월), 주당 40달러의 15억 달러 IPO(2025년 3월 28일)가 포함되며, 부채를 포함해 기업 가치가 350억 달러를 넘는 상장사가 탄생하게 됩니다.
앵커 투자자는 자본 이상의 전략적 가치를 입증합니다. 2025년 3월 기준 약 9억 달러, 5월까지 약 16억 달러에 달하는 NVIDIA의 약 6% 지분은 하드웨어/소프트웨어 최적화에 대한 기술 협력을 제공하는 동시에 할당 제한 기간 동안 GPU 공급에 우선적으로 액세스할 수 있도록 보장합니다. Microsoft의 고객 관계는 특히 상당한 컴퓨팅 리소스를 필요로 하는 대규모 OpenAI 파트너십을 고려할 때 CoreWeave가 필수 인프라라는 점을 입증합니다. 피델리티, 블랙록, 알티미터를 포함한 투자자 컨소시엄은 기업 영업과 향후 자본 조달에 중요한 기관의 신뢰를 제공합니다.
고객 집중은 검증과 위험을 모두 수반합니다. S-1 서류에 따르면 Microsoft는 CoreWeave의 2024년 매출 중 약 62%를 차지했는데, 이는 빠른 확장이 가능하지만 계약 재협상이나 전략적 변화에 대한 취약성을 초래하는 의존도입니다. 이러한 계약의 장기적인 특성은 어느 정도 안정성을 제공하지만, 구체적인 기간은 공개되지 않았습니다(일반적으로 주문 기간은 2~5년입니다). OpenAI는 최대 119억 달러에 달하는 약정 금액과 이후 40억 달러의 추가 확장을 투자자 관계 자료에 공개하여 추가적인 앵커 수익을 제공합니다. IBM과 주요 금융 기관을 포함한 광범위한 고객 기반은 초기 앵커 테넌트를 넘어선 시장 확장을 보여줍니다.
2025년 2분기 기준 301억 달러의 매출 수주잔고는 인프라 기업에게 전례 없는 가시성을 제공하며, 계약된 매출은 수년간의 미래 약정을 의미하지만, 수십 개의 데이터센터에 수십만 개의 GPU를 배포하고 운영하는 복잡성을 고려하면 실행 위험은 여전히 상당합니다. 수익 인식은 인프라 가용성에 따라 달라지므로 기업 고객이 요구하는 안정성을 보장하면서 공격적인 배포 일정을 유지해야 하는 부담이 있습니다.
재무 실적은 AI 인프라의 까다로운 단위 경제성을 보여줍니다. 2025년 2분기 실적은 12억 1,000만 달러의 매출을 기록했지만 빠르게 진화하는 하드웨어에 대한 막대한 감가상각비, 부채 부담으로 인해 연간 10억 달러에 달하는 이자 비용, 인프라 구축에 따라 증가하는 운영 비용으로 인해 손실이 확대되고 있습니다. 수익성을 확보하려면 더 큰 규모를 달성하여 고정 비용을 상각하고, 가동률을 개선하며, 경쟁 압력에도 불구하고 가격 규율을 유지하는 등 성장과 지속 가능성 사이의 미묘한 균형을 유지해야 합니다.
2025년 5월, 약 17억 달러(테크크런치 및 업계 보고서에 따르면, 공식 조건은 아직 공개되지 않음)에 웨이트 앤 바이어스를 인수하면서 MLOps 기능이 추가되는 동시에 통합의 복잡성이 증가했습니다. 이 거래는 2025년 5월 5일에 완료되었으며, 1,400개 이상의 기업에서 사용하는 모델 개발 도구와 인프라를 결합했습니다.
전문화와 파트너십을 통해 시장 입지를 강화합니다.
CoreWeave의 시장 전략은 GPU 가속 컴퓨팅에서 타의 추종을 불허하는 깊이를 달성하기 위해 의도적으로 범위를 제한함으로써 기존의 클라우드 플랫폼 접근 방식을 뒤집습니다. AWS는 상상할 수 있는 모든 워크로드에 걸쳐 200개 이상의 서비스를 제공하는 반면, CoreWeave는 AI 학습 및 추론에 최적화된 GPU 컴퓨팅 인프라를 집중적으로 제공합니다. 이러한 전문성을 통해 일반 플랫폼이 광범위한 요구 사항과 균형을 이루는 아키텍처 최적화 및 운영 효율성을 실현할 수 있습니다.
경쟁 구도는 계속해서 빠르게 진화하고 있습니다. 하이퍼스케일러는 이제 AWS, Google Cloud, Azure에서 고대역폭 네트워킹 옵션, 베어메탈 인스턴스, 향상된 GPU 가용성을 제공하는 등 GPU 제품을 크게 향상시켰습니다. 차별화는 점점 더 원시 사양보다는 클러스터 규모의 가용성, 토폴로지 최적화, 열 관리, 소프트웨어 스택 통합에 중점을 두고 있습니다.
코어웨이브의 파트너십 전략은 심층적인 에코시스템 통합을 통해 집중적인 접근 방식을 강화합니다. NVIDIA의 관계는 고객과 공급업체의 역학 관계를 넘어선 것으로, 새로운 아키텍처 출시(2025년 2월 GB200 NVL72, 2025년 7월 GB300 NVL72)를 위한 NVIDIA의 지분과 지속적인 CoreWeave 선택은 전략적 연계성을 입증합니다. 데이터브릭스, 허깅 페이스 및 기타 AI 플랫폼과의 파트너십을 통해 코어위브는 경쟁 서비스를 구축할 필요 없이 워크플로 호환성을 보장합니다.
지리적 확장은 재생 에너지를 활용한 영국 운영 및 노르웨이, 스웨덴, 스페인의 시설에 10억 파운드 등 유럽 인프라에 35억 파운드가 투입되는 AI 혁신 허브에 이은 것입니다. 2025년 현재 33개의 데이터센터를 운영 중이며, 약 470MW의 IT 전력과 약 2.2GW의 계약 용량(2025년 2분기)을 보유하고 있어 지속적인 성장을 위한 기반을 마련하고 있습니다.
지속 가능한 경쟁 우위는 전문화된 인프라가 까다로운 고객을 끌어들이고, 집중된 수요가 지속적인 투자를 정당화하며, 기술 리더십이 새로운 하드웨어에 대한 조기 액세스를 보장하는 복합적인 효과에서 비롯됩니다. 이는 코어위브가 독보적인 위치를 점하고 있지만, 자본 요구 사항과 경쟁 압력을 고려할 때 실행 리스크는 여전히 상당합니다.
기술 인프라: 전례 없는 규모의 엔지니어링 AI
2025년 현재 미국과 유럽 전역에 걸쳐 33개의 데이터센터가 운영되고 있으며, 이는 전 세계에서 가장 큰 규모의 전문 GPU 배치 중 하나입니다. 지리적 분포에는 454,421평방피트에 3,500개 이상의 H100 GPU를 수용하는 16억 달러 규모의 텍사스주 플레노 시설과 같은 주요 배치가 있는 미국 내 28개 지점이 포함됩니다. MLPerf 트레이닝 v5.0 제출(2025년 6월)에서 CoreWeave, NVIDIA 및 IBM은 2,496개의 GB200 GPU를 사용해 27.3분 만에 라마 3.1 405B를 트레이닝하여 다른 제출자의 비슷한 클러스터 규모보다 2배 이상 빠른 역대 최대 규모의 벤치마크를 달성했습니다.
전력 인프라는 탁월한 효율성을 위해 설계된 시설을 포함하여 약 470메가와트의 활성 용량과 2025년 2분기 현재 약 2.2기가와트 이상의 계약이 체결된 중요한 차별화 요소입니다. 랙당 130킬로와트를 지원하는 액체 냉각 기술은 기존의 30킬로와트 공랭식 제한에 비해 랙당 72개의 GPU를 포함하는 NVIDIA GB200 NVL72 시스템과 같은 고밀도 구성의 배포를 가능하게 합니다.
GPU 제품군은 총 약 250,000개의 GPU가 배포된 NVIDIA의 최신 아키텍처를 중심으로 합니다. 이 구성에는 SXM5 및 PCIe 구성의 H100 변형, 141GB HBM3e 메모리를 탑재한 H200 GPU, GB200 NVL72 시스템의 초기 배포가 포함됩니다. 코어웨이브는 GB200 NVL72의 최초 시장 출시(2025년 2월)와 GB300 NVL72의 최초 배포(2025년 7월 3일)를 달성하며 새로운 NVIDIA 하드웨어에 대한 조기 액세스 패턴을 유지했습니다.
네트워킹 백본은 비차단 팻 트리 토폴로지에서 ConnectX-7 어댑터를 통해 GPU당 400Gb/s를 제공하는 NVIDIA 퀀텀-2 인피니밴드를 사용하여 높은 처리량으로 마이크로초 미만의 지연 시간을 달성하지만, 원시 네트워킹 속도는 이제 최상위 하이퍼스케일러 제품과 일치합니다. 차별화된 점은 토폴로지 최적화, 스케줄러 통합, 클러스터 전반의 일관된 구성에 있습니다.
스토리지 아키텍처는 독립적인 확장을 위해 분리된 아키텍처를 활용하는 VAST 데이터 플랫폼 배포를 중심으로 합니다. 이 시스템은 트레이닝 읽기와 체크포인트 쓰기를 구분하는 최적화된 I/O 패턴으로 GPU당 최대 1GB/s의 지속적인 처리량을 달성합니다. 코어웨이브의 LOTA(로컬 오브젝트 전송 가속기) 기술은 자주 액세스하는 데이터를 GPU 노드에 캐시하여 네트워크 트래픽을 줄이면서 처리량을 향상시킵니다.
베어메탈 성능에 최적화된 소프트웨어 스택.
CoreWeave의 베어메탈 Kubernetes 아키텍처는 하드웨어에서 직접 Kubernetes를 실행하여 가상화 오버헤드를 제거합니다. 이 접근 방식은 하드웨어에 직접 액세스하는 동시에 NVIDIA BlueField DPU를 통해 멀티테넌시를 유지합니다. 내부 벤치마크에 따르면 이 방식은 Hopper GPU에서 50% 이상의 모델 FLOPS 활용도를 지원하며, 이는 공개 기준선보다 약 20% 높은 수치이지만 이러한 특정 수치에 대한 독립적인 검증은 아직 제한적입니다.
코어웨이브 쿠버네티스 서비스(CKS)는 코어웨이브가 컨트롤 플레인을 관리하는 동안 고객이 데이터 플레인 구성 요소를 제어할 수 있도록 함으로써 일반적인 관리형 쿠버네티스를 뛰어넘는 확장성을 제공합니다. GPU 드라이버, 네트워크/스토리지 인터페이스, 통합 가시성 플러그인으로 사전 구성된 CKS는 Slurm, KubeFlow, KServe를 비롯한 워크로드 오케스트레이션 도구와 통합됩니다.
SUNK(Slurm on Kubernetes)는 슬러름을 컨테이너화된 쿠버네티스 리소스로 배포하여 배치 작업과 장기 실행 서비스 간에 동적 리소스 공유를 가능하게 함으로써 HPC와 클라우드 패러다임을 연결합니다. 또한 토폴로지 인식 스케줄링을 통해 인피니밴드 패브릭 구성에 최적화된 높은 활용도를 달성합니다.
텐서라이저 기술은 최적화된 직렬화 및 스트리밍을 통해 모델 배포를 가속화하여 CoreWeave의 벤치마크에 따르면 표준 접근 방식보다 5배 빠른 모델 로딩 속도를 달성합니다. 이 오픈 소스 도구는 전체 모델을 RAM에 로드하는 대신 모델을 청크 단위로 스트리밍하는 '제로 카피' 로딩을 지원합니다.
검증된 성능 벤치마크를 갖춘 최첨단 배포 환경
코어웨이브의 인프라 성과에는 규모와 성능을 입증하는 검증 가능한 MLPerf 제출이 포함됩니다. 2,496개의 NVIDIA GB200 GPU를 사용한 2025년 6월 MLPerf 트레이닝 v5.0 제출은 27.3분 만에 라마 3.1 405B 트레이닝을 완료했으며, 이는 클라우드 제공업체 중 가장 빠른 속도이자 동급 클러스터 규모보다 2배 이상 빠른 속도입니다.
MLPerf 추론 v5.0 결과에 따르면 GB200 시스템을 사용하는 Llama 3.1 405B에서 추론 성능은 초당 800 토큰에 달하며, H200보다 칩당 2.86배 향상된 성능을 보여줍니다. GB200 NVL72 아키텍처는 랙당 72개의 블랙웰 GPU와 36개의 Grace CPU를 결합하여 13.5TB의 NV링크 연결 메모리로 1.44 엑사플롭스를 제공합니다.
SemiAnalysis의 ClusterMAX 등급 시스템은 50개 이상의 기술 요구 사항에 대해 AWS, Google Cloud, Azure 및 기타 제공업체와 비교 평가하여 2025년 3월~4월 출시 당시 CoreWeave만을 플래티넘 등급으로 선정했습니다. 이 독립적인 평가는 기술적 차별성을 입증하지만, 등급 시스템은 경쟁 환경의 변화에 따라 정기적으로 업데이트할 계획입니다.
기술 파트너십을 통해 플랫폼 기능을 가속화합니다.
2025년 5월 현재 약 16억 달러에 달하는 약 6%의 지분을 보유하고 있는 NVIDIA는 일반적인 벤더 관계를 넘어서는 파트너십을 맺고 있습니다. 이러한 긴밀한 통합은 새로운 아키텍처의 일관된 최초 시장 출시와 최적화를 위한 공동 엔지니어링 노력에서 나타납니다. MLPerf 공동 제출물은 이러한 기술 협업을 잘 보여줍니다.
IBM의 Granite 모델 트레이닝을 위한 CoreWeave 인프라스트럭처 구축은 퀀텀-2 인피니밴드 네트워킹을 갖춘 GB200 시스템을 활용합니다. Dell의 인프라스트럭처 파트너십에는 수냉식 랙에 GB200 NVL72가 장착된 PowerEdge XE9712 서버가 포함됩니다. VAST Data는 분산 아키텍처 플랫폼을 통해 모든 CoreWeave 데이터 센터의 스토리지를 지원합니다.
약 17억 달러에 인수(2025년 5월 5일 완료)된 Weights & Biases를 통해 인프라와 MLOps 기능을 결합한 통합 AI 플랫폼이 탄생했습니다. OpenAI와 Meta를 비롯한 1,400개 이상의 기업이 사용하는 이 플랫폼은 상호 운용성을 유지하면서 모델 개발 및 모니터링 도구를 추가합니다.
미래의 궤적은 성장과 재정적 지속 가능성의 균형을 유지합니다.
코어위브의 미래 지향적인 이니셔티브에는 몇 가지 주요 개발 사항이 포함되어 있습니다. GB300 NVL72 배포(2025년 7월)는 "추론 모델 추론 출력의 50배 향상"을 약속하지만, 이는 독립적으로 검증된 벤치마크가 아닌 공급업체의 예상치를 나타냅니다. 2025년 말에 출시되는 스팟 GPU 렌탈은 동적 가격 책정을 통해 더 저렴한 비용으로 중단 없는 인스턴스를 제공할 것입니다.
총 35억 달러 규모의 유럽 확장으로 GDPR 요건을 충족하는 재생 에너지 시설을 통해 데이터 주권을 확립합니다. 계약 전력 용량을 1.6기가와트로 확장하는 동시에 차세대 하드웨어를 지원하기 위해 액체 냉각 기능을 확장하고 있습니다.
재정 문제에는 신중한 탐색이 필요합니다. 110억 달러가 넘는 부채로 인해 연간 약 10억 달러의 이자 비용이 발생하는 CoreWeave는 공격적인 성장과 수익성 확보의 균형을 유지해야 합니다. 2024년 매출의 62%를 Microsoft가 차지할 정도로 고객 집중 리스크가 여전히 높습니다. 2025년 2분기에 12억 1,000만 달러의 분기 매출을 달성했음에도 불구하고 손실이 확대되었다고 보고했습니다.
IDC는 2027년까지 연간 AI 인프라 지출이 5,000억 달러에 달할 것으로 예상하는 등 시장 기회는 여전히 상당합니다. 자본 요구 사항, 경쟁 역학 관계, 성장 모멘텀을 유지하면서 고객 기반을 다각화해야 하는 필요성 등을 고려할 때 실행 리스크가 상존하지만 CoreWeave의 전문화된 접근 방식과 기술적 우위를 통해 상당한 가치를 창출할 수 있는 위치에 있습니다.
결론
코어위브는 베어메탈 쿠버네티스 아키텍처, 130kW 랙 밀도를 지원하는 액체 냉각, NVIDIA의 최신 기술을 지속적으로 시장에 먼저 배포함으로써 측정 가능한 이점을 제공하는 특화된 AI 인프라를 설계했습니다. 암호화폐 채굴에서 SemiAnalysis의 ClusterMAX 시스템에서 유일한 플래티넘 등급 제공업체로 전환(2025년 3월 기준)한 것은 집중적인 전략의 성공적인 실행을 입증합니다. 2,496개의 GB200 GPU를 사용해 27.3분 만에 3.1,405억 개의 MLPerf 트레이닝을 수행한 최대 규모의 MLPerf 트레이닝 제출과 301억 달러의 계약된 매출 잔고를 포함한 검증 가능한 성과를 통해 CoreWeave는 AI 개발을 위한 핵심 인프라로 자리매김했습니다.
그러나 앞으로 나아가기 위해서는 110억 달러가 넘는 부채, 2024년 매출의 대부분을 차지하는 Microsoft에 대한 고객 집중도, 점점 더 많은 기능을 갖춘 하이퍼스케일러 제품과의 경쟁 등 상당한 난관을 헤쳐나가야 합니다. 약 2.2기가와트의 계약 전력 용량으로 확장하고 차세대 시스템을 구축하는 과정에서 기술 리더십을 유지하면서 재정적 지속 가능성을 달성할 수 있는 능력이 암호화폐 채굴자였던 이 회사가 AI 인프라 환경을 영구적으로 재편할 수 있을지 여부를 결정할 것입니다.
데이터는 2025년 8월 15일까지의 최신 데이터입니다. 출처에는 회사 제출 서류, SEC 문서, MLPerf 벤치마크, SemiAnalysis의 업계 분석이 포함됩니다.
참조
CoreWeave, Inc. - 2025년 3월 3일에 제출된 미국 증권거래위원회 양식 S-1(초기 등록 명세서). (매출 내역, 2024년 737% 성장, 회사 배경)(SEC)
CoreWeave, Inc. - 투자 설명서(양식 424B4), 미국 증권거래위원회, 2025년 4월. (고객 집중도, Microsoft = 2024년 매출의 62%)(SEC)
코어위브 - "코어위브, 2025년 2분기 실적 호조", Business Wire/IR, 2025년 8월 12일. (2분기 매출 12억2120만달러, 수주잔고 301억달러, 가동 중인 약 470MW, 계약된 약 2.2GW, OpenAI 119억달러 + 40억달러 확장).(비즈니스 와이어)
Reuters - "CoreWeave 매출은 AI 호황으로 예상치를 상회하지만 주가는 더 큰 손실로 하락", 2025년 8월 12일. (2분기 실적, 33개 데이터센터)(로이터)
Reuters - "CoreWeave, 190억 달러의 가치로 75억 달러의 부채를 조달", 2024년 5월 17일. (개인 신용, $190억 평가.)
Reuters - "CoreWeave, 6억 5천만 달러 규모의 2차 주식 매각 완료... 230억 달러 가치", 2024년 11월 13일.(230억 달러 2차 평가.)(로이터)
SemiAnalysis - "클라우드 GPU 성능 등급 시스템 소개 - ClusterMAX (2025년 2분기)", 2025년 4월. (클러스터맥스 방법론, 코어위브 = 플래티넘.)(SemiAnalysis)
CoreWeave - "규모에 맞는 블랙웰: 코어웨이브에서 GB200 NVL72의 일반 공급", 2025년 2월 4일. ( GB200 NVL72로 GA에 최초 출시.)(로이터)
CoreWeave - "최초의 NVIDIA GB300 NVL72 배포"(블로그), 2025년 7월 3일. (최초의 GB300 NVL72 배포.)(CoreWeave)
NVIDIA 개발자 블로그 - "AI 추론의 시대를 위한 블랙웰 울트라", 2025년 3월 19일. (**"사용자당 10배 TPS" + "MW당 5배 TPS" ⇒ "최대 50배 출력" 마케팅 주장).(NVIDIA 개발자)
MLCommons - MLPerf 교육 v5.0 결과(2025). (Llama-3.1 405B 27.3분, 2,496GB200, 최대 제출)(Microsoft Learn)
MLCommons - MLPerf 추론 v5.0(데이터센터) 결과(2025). (Llama-3.1 405B 처리량/레이턴시, 공급업체 요약에 사용된 GB200 대 H200 비교 포함.)(Microsoft Learn)
AWS - P5 인스턴스 / EFA 네트워킹(공식 문서/블로그).( EFA/SR-IOV를 사용하는 p5에서최대 3,200Gbps 인스턴스 네트워킹)(Amazon Web Services, Inc.)
Microsoft Azure - "ND H100 v5-시리즈(프리뷰)" 제품 페이지.(1.6~3.2 Tbps급 네트워킹.)(AWS 설명서)
Google Cloud 블로그 - "A3 Ultra: VM당 3.2Tbps의 GPU 네트워킹" (A3/A3 Ultra 출시 자료).( VM당3.2Tbps.)(Google Cloud)
Dell Technologies - "Dell, NVIDIA GB200 NVL72가 탑재된 최초의 PowerEdge XE9712 서버를 CoreWeave에 출하", 2025년 6월 20일. (랙 스케일, 수냉식 제공 파트너.)(CoreWeave)
VAST 데이터 - "CoreWeave의 스케일아웃 AI 성능"(사례 연구/솔루션 페이지), 2025. (코어웨이브 DC에 배포된 VAST, I/O 아키텍처)(코어웨이브)
웨이트 앤 바이어스 - "코어위브에 합류합니다"(인수 발표), 2025년 5월 5일. (W&B 거래 종결/시기, 통합 방향)(핀테크 위클리 - 홈페이지)
Reuters - "CoreWeave, 유럽에 22억 달러 추가 투자, 총 35억 달러 규모", 2024년 6월 5일. (유럽 확장 규모/위치)(로이터)
Investor's Business Daily - "엔비디아 지원 CoreWeave의 IPO 제출에 큰 매출 증가... Microsoft 62%, 엔비디아 6% 지분", 2025년 3월. (서류/언론에 언급된 엔비디아 지분 6%를 확증합니다.)(투자자)