엔비디아의 컴퓨텍스 2025 혁명: 데이터센터를 AI 공장으로 전환하기
엔비디아의 CEO인 젠슨 황은 자신의 트레이드마크인 가죽 재킷을 입고 컴퓨텍스 2025 무대에 올라 새로운 하드웨어와 완전히 새롭게 재해석된 컴퓨팅 패러다임을 공개했습니다. 이 반도체 대기업은 AI 인프라 회사로 과감하게 변신하여 전기와 인터넷에 이은 세 번째 주요 인프라 혁명인 "지능의 인프라"를 위한 토대를 구축했습니다.
이번 기조연설은 단순한 제품 발표가 아니라 컴퓨팅 환경을 재편하기 위한 NVIDIA의 청사진을 제시하는 자리였습니다. 그가 공개한 기술적 도약, 전략적 전환, 시장 공략은 앞으로 수년간 우리가 참고할 만한 컴퓨텍스가 될 것입니다. 전체 영상 보기 컴퓨텍스 2025 Nvidia 기조연설.
NVIDIA의 전략적 진화: 그래픽 카드에서 인프라 제공업체로
NVIDIA의 혁신 스토리는 놀랍습니다. 1993년 젠슨은 "3억 달러 규모의 칩 기회"라는 거대한 시장을 발견했습니다. 그리고 오늘날, 그는 1조 달러 규모의 거대 AI 인프라를 이끌고 있습니다. 이러한 폭발적인 성장은 그냥 이루어진 것이 아니라, 그 과정에서 여러 차례 근본적인 혁신을 거듭했습니다.
젠슨은 기조연설에서 오늘날의 NVIDIA를 가능하게 한 전환점을 강조했습니다:
2006: CUDA가 등장하면서 병렬 컴퓨팅은 완전히 뒤집혔습니다. 일반 컴퓨팅에 GPU를 사용하는 것을 전혀 고려하지 않았던 개발자들이 갑자기 기존 CPU로는 불가능했던 애플리케이션을 개발하기 시작했습니다.
2016: 2016년: DGX1은 NVIDIA 최초의 타협 없는 AI 중심 시스템으로 등장했습니다. 지금은 거의 섬뜩한 예고처럼 보이지만, 젠슨은 첫 번째 유닛을 OpenAI에 기증하여 결국 현재의 AI 혁명으로 이어질 수 있는 컴퓨팅 기반을 제공했습니다.
2019년: 데이터센터를 통합 컴퓨팅 장치로 재정의하는 NVIDIA의 Mellanox 인수
이러한 변화는 "필수 인프라 기업"으로서의 엔비디아의 현재 위치, 즉 AI 배포를 위한 글로벌 인프라 계획을 가능하게 하는 전례 없는 5개년 공공 로드맵을 강조하며 황 CEO가 강조한 위상을 정점에 이르렀습니다.
성능 지표의 재정의: 토큰 경제
NVIDIA는 컴퓨팅 성능을 측정하는 방식에 근본적인 변화를 도입했습니다. 황은 AI 데이터센터를 FLOP 또는 초당 작업 수와 같은 전통적인 지표 대신 컴퓨팅 인텔리전스의 단위인 '토큰'을 생산하는 공장으로 포지셔닝했습니다:
"기업들은 지난 분기에 얼마나 많은 토큰을 생산했는지, 지난 달에 얼마나 많은 토큰을 생산했는지에 대해 이야기하기 시작했습니다. 조만간 모든 공장이 그러하듯 우리도 매시간 몇 개의 토큰을 생산하는지 논의하게 될 것입니다."
이러한 재구성은 컴퓨팅 투자와 비즈니스 성과를 직접적으로 연결하여 AI 인프라를 기존 산업 프레임워크와 연계합니다. 이 모델은 컴퓨팅 효율성이 비즈니스 역량으로 직결되는 새로운 경제 패러다임의 진원지에 NVIDIA를 자리매김합니다.
블랙웰 아키텍처 업그레이드: GB300 사양 및 성능 지표
GB200 시스템
블랙웰 아키텍처에 대한 GB300 업데이트는 NVIDIA의 끊임없는 성능 개선 주기를 잘 보여줍니다. 2025년 3분기로 예정된 GB300은 다음과 같이 제공됩니다:
GB200 대비 1.5배 추론 성능 향상
1.5배 HBM 메모리 용량 증가
네트워킹 대역폭 2배 개선
완전 수냉식 설계
기존 섀시 및 시스템과 역호환 가능
각 GB300 노드는 약 40페타플롭을 제공하며, 이는 18,000개의 볼타 GPU가 필요했던 전체 시에라 슈퍼컴퓨터(2018년경)를 효과적으로 대체하는 것입니다. 6년 만에 4,000배의 성능 향상은 기존의 무어의 법칙 확장 속도를 크게 앞지르는 것으로, 아키텍처, 소프트웨어 및 상호 연결 혁신을 통해 성능 가속화에 대한 NVIDIA의 다각적인 접근 방식을 보여줍니다.
MVLink: 상호 연결 기술의 재정의
MV링크는 NV링크 도입 이후 GPU 인터커넥트 기술에서 가장 중요한 발전을 이루었습니다. 이 시스템은 전체 랙에서 컴퓨팅 리소스를 완전히 분리하여 72개의 GPU(144개의 GPU 다이)를 하나의 대규모 컴퓨팅 장치로 전환할 수 있습니다.
기술 사양은 놀랍습니다:
개별 MVLink 스위치: 7.2TB/s 대역폭
MVLink 스파인: 130TB/s의 전체 대역폭
물리적 구현: 길이가 정확히 일치하는 5,000개의 동축 케이블(총 약 2마일)
전력 밀도: 랙당 120킬로와트(액체 냉각 필요)
황은 전체 인터넷의 최대 트래픽은 초당 약 900테라비트(112.5TB/s)로, 단일 MVLink 스파인이 최대 용량으로 전 세계 인터넷보다 더 많은 트래픽을 처리할 수 있다고 설명했습니다.
MV링크 퓨전: 개방형 AI 인프라 생태계 조성
MV링크 퓨전은 NVIDIA가 지난 몇 년 동안 만든 가장 혁신적인 에코시스템 플레이일 수 있습니다. 파트너에게 NVIDIA 하드웨어에 올인할 것을 강요하는 대신, NVIDIA 아키텍처를 개방하여 기업이 여전히 NVIDIA 유니버스에 연결되는 세미 커스텀 AI 시스템을 구축할 수 있도록 하고 있습니다.
접근 방식은 놀라울 정도로 유연합니다:
맞춤형 ASIC 통합: 특수 가속기가 있으신가요? 문제 없습니다. 파트너는 MVLink 칩렛을 드롭하여 커스텀 실리콘을 NVIDIA의 에코시스템에 연결할 수 있습니다. 마치 NVIDIA가 "원하는 특수 하드웨어는 무엇이든 만들되, 우리 장비와 통신할 수만 있으면 됩니다."라고 말하는 것과 같습니다.
맞춤형 CPU 통합: CPU 공급업체도 빼놓을 수 없습니다. 이들은 MVLink의 칩 투 칩 인터페이스를 직접 구현하여 프로세서와 블랙웰 GPU(또는 곧 출시될 루벤 아키텍처) 사이에 직접 고속도로를 만들 수 있습니다. 특정 CPU 아키텍처에 투자한 기업에게 MVLink는 큰 도움이 됩니다.
파트너 발표는 반도체 산업 전반에 걸쳐 이루어집니다:
실리콘 구현 파트너 LCHIP, 아스테라 랩스, 말, 미디어텍
CPU 공급업체 후지쯔, 퀄컴
EDA 제공업체 케이던스, 시놉시스
이러한 접근 방식은 고객이 배포하는 특정 하드웨어 조합에 관계없이 가치를 창출할 수 있도록 전략적으로 NVIDIA를 포지셔닝하며, 이는 황의 솔직한 발언을 반영합니다: "NVIDIA에서 모든 것을 구매할 때보다 저에게 더 큰 기쁨을 주는 것은 없습니다. 여러분도 그 사실을 알아주셨으면 합니다. 하지만 여러분이 NVIDIA에서 무언가를 구매해 주신다면 저에게도 큰 기쁨이 됩니다."
엔터프라이즈 AI 배포: RTX Pro 엔터프라이즈 및 옴니버스 서버
RTX Pro 엔터프라이즈 및 옴니버스 서버는 AI 기능을 기존 IT 환경에 통합하도록 특별히 설계된 NVIDIA의 가장 중요한 엔터프라이즈 중심 컴퓨팅 제품입니다:
x86과 완벽하게 호환되는 아키텍처
기존 하이퍼바이저(VM웨어, 레드햇, 나닉스)에 대한 지원
익숙한 워크로드 오케스트레이션을 위한 Kubernetes 통합
Blackwell RTX Pro 6000s GPU(서버당 8개)
800Gb/s 대역폭을 제공하는 CX8 네트워킹 칩
호퍼 H100 대비 1.7배 성능 향상
Deepseek R1과 같은 최적화된 모델에서 4배의 성능 제공
이 시스템은 처리량(초당 토큰 수)과 응답성(사용자당 초당 토큰 수)의 이중 축 프레임워크로 측정되는 AI 추론의 새로운 성능 범위를 설정하며, 이는 황이 "추론 시간 확장" 또는 "생각하는 AI" 시대의 핵심 지표라고 설명합니다.
AI 데이터 플랫폼: 비정형 데이터를 위한 스토리지의 재구상
NVIDIA의 AI 데이터 플랫폼은 엔터프라이즈 스토리지에 대한 근본적으로 다른 접근 방식을 도입합니다:
"인간은 SQL과 같은 정형 데이터베이스를 쿼리합니다... 하지만 AI는 비정형 데이터를 쿼리하고 싶어 합니다. 그들은 시맨틱을 원합니다. 의미를 원합니다. 그래서 우리는 새로운 유형의 스토리지 플랫폼을 만들어야 합니다."
주요 구성 요소는 다음과 같습니다:
NVIDIA AIQ(또는 IQ): 시맨틱 쿼리 레이어
기존 CPU 중심 아키텍처를 대체하는 GPU 가속 스토리지 노드
투명한 학습 데이터 출처를 갖춘 사후 학습된 AI 모델
기존 솔루션 대비 50% 향상된 결과로 15배 빠른 쿼리 속도 제공
이 아키텍처를 구현하는 스토리지 업계 파트너로는 Dell, Hitachi, IBM, NetApp, Vast 등이 있으며, 포괄적인 엔터프라이즈 AI 데이터 관리 에코시스템을 구축하고 있습니다.
AI 운영 및 로보틱스: 인텔리전트 엔터프라이즈를 위한 소프트웨어 프레임워크
기조연설에서는 두 가지 중요한 소프트웨어 프레임워크가 소개되었습니다:
AI 운영(AIOps): 데이터 큐레이션, 모델 미세 조정, 평가, 가드레일, 보안 등 엔터프라이즈 컨텍스트에서 AI 에이전트를 관리하기 위한 포괄적인 스택입니다. 파트너로는 Crowdstrike, Data IQ, Data Robots, Elastic, Newonix, Red Hat, Trend Micro 등이 있습니다.
아이작 그루트 플랫폼 N1.5: 다음을 포함한 오픈 소스 로봇 개발 에코시스템입니다:
뉴턴 물리 엔진(구글 딥마인드 및 디즈니 리서치와 함께 개발)
젯슨 토르 로보틱스 프로세서
NVIDIA Isaac 운영 체제
합성 궤적 데이터 생성을 위한 그루트 드림 청사진
로봇 공학 이니셔티브는 "로봇 공학이 실현되려면 AI가 필요합니다."라는 중요한 과제를 해결합니다. 하지만 AI를 가르치려면 AI가 필요합니다." 이 재귀적 최적화 패턴은 제너레이티브 AI를 활용하여 제한된 인간 데모 데이터를 포괄적인 로봇 학습 세트로 확장합니다.
AI 제조 혁명에서 대만의 전략적 위치
기조연설의 상당 부분은 AI 기술을 생산하고 구현하는 데 있어 대만의 중추적인 역할을 강조했습니다:
대만의 제조 기업(TSMC, 폭스콘, 위스트론, 페가트론, 델타 일렉트로닉스, 콴타, 위윈, 기가바이트)이 디지털 트윈 구현을 위해 NVIDIA Omniverse를 배포하고 있습니다.
TSMC는 팹 레이아웃과 배관 시스템을 최적화하기 위해 CUDA에서 AI 기반 툴을 사용하고 있습니다.
제조 파트너는 디지털 트윈을 가상 계획 및 예측 유지보수, 로봇 시스템 훈련을 위한 '로봇 체육관'으로 활용합니다.
폭스콘, TSMC, 대만 정부, NVIDIA가 대만 최초의 대규모 AI 슈퍼컴퓨터를 구축하고 있습니다.
황은 타이페이의 새로운 본사 시설인 "엔비디아 컨스텔레이션" 계획을 발표하며 아태 지역에 대한 엔비디아의 의지를 더욱 공고히 했습니다.
기술적 분석: 이것이 엔터프라이즈 AI 전략에 주는 의미
이번 발표는 엔터프라이즈 컴퓨팅에 대한 포괄적인 재구상과 함께 몇 가지 전략적 함의를 담고 있습니다:
컴퓨팅 규모 요구 사항: '추론 AI'와 에이전트 시스템의 추론 시간 성능 요구 사항은 초기 대규모 언어 모델 배포보다 훨씬 더 높은 컴퓨팅 요구 사항을 유발하므로 대규모 스케일업 및 스케일아웃 기능을 위한 아키텍처 계획이 필요합니다.
엔터프라이즈 AI의 분리: MV링크 퓨전 에코시스템은 이기종 AI 시스템을 구축할 때 전례 없는 유연성을 제공하므로, 상호 연결 기술을 통해 에코시스템에서 NVIDIA의 입지를 유지하면서 전문 AI 가속기의 채택을 가속화할 수 있습니다.
데이터 센터에서 AI 팩토리로 전환: 인프라 투자의 가치를 측정하는 방법을 완전히 재고해야 합니다. 원시 컴퓨팅이나 스토리지 용량이 모든 것을 말하던 시대는 지났습니다. 이제는 시스템이 초당, 와트당, 달러당 얼마나 많은 단위의 AI 결과물을 생성할 수 있는지, 즉 토큰 생산에 관한 것입니다. 곧 기업들이 제조 지표와 같은 토큰 생산량을 보고하게 될 것이라는 젠슨의 말은 농담이 아니었습니다. AI 팩토리로의 전환은 AI 인프라 지출을 배포하고 정당화하는 방법의 경제성을 근본적으로 다시 쓰게 될 것입니다.
디지털 트윈 통합: 대만의 모든 주요 제조업체가 옴니버스 디지털 트윈을 구축하고 있다는 사실은 더 이상 멋진 기술 데모가 아니라는 사실을 알려줍니다. 디지털 트윈은 최적화를 중요하게 생각하는 기업에게 필수적인 인프라가 되었습니다. 특히 흥미로운 점은 기업이 디지털 트윈을 구축하여 물리적 프로세스를 최적화한 다음, 동일한 환경을 사용하여 AI와 로봇 공학을 훈련함으로써 물리적 세계를 더욱 개선하는 피드백 루프가 만들어지는 방식입니다. 이는 지속적인 개선 주기가 계속 가속화되는 것입니다.
로봇 인력 계획: 에이전트 AI와 물리적 로봇의 융합은 조직이 인력 계획 및 시설 설계에 중요한 영향을 미치는 통합 디지털 및 물리적 자동화 전략을 개발해야 함을 시사합니다.
소프트웨어 정의 인프라: 하드웨어 발표에도 불구하고 라이브러리와 소프트웨어 프레임워크에 대한 NVIDIA의 지속적인 강조는 AI의 경쟁 우위가 하드웨어 성능만큼이나 소프트웨어 최적화에서 비롯될 것이라는 점을 강조합니다.
AI 팩토리 전환 탐색하기
기존 데이터센터를 AI 팩토리로 전환하려면 하드웨어 배포, 소프트웨어 최적화, 아키텍처 설계를 연결하는 전문 지식이 필요합니다. Introl은 이러한 고급 기술을 구현해 왔습니다. GPU 인프라 솔루션 구현해 왔습니다. 복잡한 MV링크 배포부터 Omniverse 디지털 트윈 구현에 이르기까지 NVIDIA의 에코시스템에 대한 저희 팀의 풍부한 경험을 통해 조직은 일반적으로 첨단 인프라와 관련된 가파른 학습 곡선 없이 이러한 패러다임 전환을 탐색할 수 있습니다. 추론 AI 기능을 확장하든 첫 번째 AI 공장 현장을 구축하든, 전문가와 협력하면 빠르게 진화하는 환경에서 가치 실현 시간을 획기적으로 단축할 수 있습니다. 시작할 준비가 되셨나요? 지금 바로 통화하세요.
결론 컴퓨팅의 세 번째 시대가 도래했습니다.
컴퓨텍스에서는 더 빨라진 칩만 선보인 것이 아닙니다. 젠슨이 발표한 내용은 우리가 무감각해진 "작년보다 20% 더 좋아졌다"는 일반적인 발표를 뛰어넘었습니다. 그는 컴퓨터의 용도를 근본적으로 재구성하고 있습니다. 우리는 수십 년 동안 숫자를 계산하고 데이터를 이동하는 기계를 만들어 왔습니다. 이제 NVIDIA는 인텔리전스를 주요 출력으로 생산하는 시스템을 구축하고 있습니다. 파일 캐비넷과 두뇌를 비교하는 것과 같습니다. 물론 둘 다 정보를 저장하지만, 한 쪽은 그 자리에 앉아 있는 반면 다른 쪽은 새로운 아이디어를 만들어냅니다. 이러한 변화는 컴퓨팅 시스템을 구축, 배포 및 측정하는 방식에 대한 모든 것을 변화시킨다는 사실을 깨닫기 전까지는 의미론적으로 들릴 수 있습니다.
"우리는 함께 일한 이래 처음으로 차세대 IT를 만들었을 뿐만 아니라 PC에서 인터넷, 클라우드, 모바일 클라우드에 이르기까지 여러 차례에 걸쳐 이를 수행했습니다. 우리는 여러 번 해왔습니다. 하지만 이번에는 차세대 IT를 만드는 것뿐만 아니라 완전히 새로운 산업을 창조하고 있습니다."
이러한 전환은 개인 컴퓨팅 혁명과 인터넷/클라우드 시대에 이은 세 번째 주요 컴퓨팅 패러다임의 변화를 의미합니다. 이러한 AI 인프라 기능을 통합하는 조직은 산업 전반에 걸쳐 극복할 수 없는 경쟁 우위를 확보할 수 있을 것입니다.
오늘날 컴퓨팅 인텔리전스의 공장은 건설 중입니다. 문제는 더 이상 AI가 비즈니스를 혁신할 것인가가 아니라, 컴퓨팅 인텔리전스가 전기처럼 비즈니스 운영의 기본이 되는 세상에서 조직이 경쟁력을 유지할 수 있는 인프라를 구축하고 있는지가 중요합니다.
참조 및 추가 리소스
NVIDIA 공식 블랙웰 아키텍처 개요: https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/
NVIDIA MVLink 기술 문서: https://developer.nvidia.com/mvlink
NVIDIA 옴니버스 플랫폼: https://www.nvidia.com/en-us/omniverse/
아이작 로보틱스 플랫폼: https://developer.nvidia.com/isaac-ros
NVIDIA AI 엔터프라이즈: https://www.nvidia.com/en-us/data-center/products/ai-enterprise/
엔비디아 컴퓨텍스 2025 공식 보도 자료: https://nvidianews.nvidia.com/news/computex-2025
NVIDIA CUDA-X 라이브러리 개요: https://developer.nvidia.com/gpu-accelerated-libraries
NVIDIA DGX 시스템: https://www.nvidia.com/en-us/data-center/dgx-systems/