본문 바로가기

엔비디아-마이크로소프트-AMD-인텔

엔비디아 2025년4분기 어닝콜-확장본(2025.05.25)

2025.05.25

 

2025.02.27

그리고 마지막으로, 그 어떤 기술도 인공지능(AI)만큼 전 세계 GDP의 더 넓은 영역을 직접적으로 다룰 수 있었던 적은

없었습니다. 지금까지 어떤 소프트웨어 도구도 그런 기회를 갖지 못했습니다.

그런데 이제 AI는 역사상 가장 넓은 경제 영역을 포괄할 수 있는 소프트웨어 도구가 된 것입니다.

 

따라서 우리가 성장을 바라보는 방식, 그리고 어떤 것이 크고 작은지를 판단하는 기준도 이제 이 새로운 맥락 속에서 다시

생각해야 합니다. 이처럼 큰 흐름의 관점에서 한 발 물러나 바라본다면, 우리는 정말 이제 겨우 시작점에 서 있는 것입니다.

 

젠슨 황 – 사장 겸 최고경영자(CEO)

지금 우리는 에이전틱 AI(agentic AI) 시대의 시작점에 있습니다. 요즘 많은 사람들이 이 주제에 대해 이야기하고 있고, 저희도 이 분야에서 정말 흥미로운 일들을 많이 진행하고 있습니다. 그리고 그 다음에는 **피지컬 AI(physical AI)**가 있고, 그 다음에는 **로보틱 시스템(robotic systems)**이 기다리고 있습니다.

 

이렇게 세 가지 유형의 컴퓨터는 모두 완전히 새로운 세대의 컴퓨팅입니다. 제 생각에, 장기적으로 보면 이 영역들이 가장 큰 규모의 시장이 될 것이라고 봅니다. 사실 이는 매우 자연스러운 흐름입니다.

 

왜냐하면 세계 GDP의 대부분은 중공업(heavy industries), 제조업, 그리고 그런 산업을 지원하는 기업들로 구성되어 있기 때문입니다.

 

OpenAI, Grok 3, DeepSeek-R1 같은 모델들은 모두 추론 중심 모델(reasoning models)로,

이들은 기존보다 100배 이상 많은 컴퓨팅 자원을 소비할 수 있습니다.

 

Blackwell에 탑재된 FP4 트랜스포머 엔진, NVLink 72 스케일업 패브릭, 그리고 새로운 소프트웨어 기술들은

Blackwell이 reasoning AI 모델을 Hopper보다 최대 25배 빠르게 처리할 수 있도록 만들어줍니다.

 

우리는 지금 reasoning AI(추론형 인공지능)와 inference time scaling(추론 단계의 확장)의 시작점에 서 있습니다.

 

하지만 이는 AI 시대의 서막에 불과합니다. 멀티모달 AI, 엔터프라이즈 AI, 주권형 AI( sovereign AI),

그리고 물리적 AI(physical AI)들이 곧 등장할 것입니다. 2025년에는 강력한 성장을 기대하고 있습니다.

앞으로 데이터센터의 자본지출(Capex)은 대부분 가속 컴퓨팅과 AI에 집중될 것입니다.

 

우리는 또한 GeForce Blackwell 노트북 GPU 신제품을 발표했으며, 배터리 수명을 최대 40%까지 연장해주는 새로운 NVIDIA Max-Q 기술이 적용되었습니다. 이 노트북들은 오는 3월부터 전 세계 주요 제조업체들을 통해 출시될 예정입니다.

 

이제 프로페셔널 비주얼라이제이션(전문 시각화) 부문으로 넘어가 보겠습니다.
이 부문 매출은 5억 1,100만 달러로, 전 분기 대비 5%, 전년 동기 대비 10% 증가했습니다.

연간 기준으로는 19억 달러의 매출을 기록하며, 전년 대비 21% 증가했습니다.


수요를 견인한 주요 산업군은 자동차 및 헬스케어 분야였으며,
NVIDIA 기술과 생성형 AI설계, 엔지니어링, 시뮬레이션 작업의 방식 자체를 변화시키고 있습니다.

 

이러한 기술은 ANSYS, Cadence, Siemens글로벌 선도 소프트웨어 플랫폼에 점점 더 많이 통합되고 있으며, 이는 NVIDIA RTX 워크스테이션에 대한 수요 증가로 이어지고 있습니다.

 

이제 자동차(Automotive) 부문으로 넘어가겠습니다. 이 부문 매출은 5억 7천만 달러로 사상 최대치를 기록했으며,
전 분기 대비 27% 증가, 전년 동기 대비 103% 증가했습니다.연간 기준 매출은 17억 달러로, 전년 대비 5% 증가했습니다.

이러한 강력한 성장은 자율주행차 및 로보택시 등 자율주행 차량 분야의 지속적인 확산에 따른 것입니다.

 

**CES에서 우리는 세계 최대 완성차 업체인 도요타(Toyota)**가
차세대 차량을 NVIDIA Orin안전 인증된 NVIDIA DriveOS 기반으로 개발할 것이라고 발표했습니다.

또한 AuroraContinentalNVIDIA Drive Thor 기반의 대규모 자율주행 트럭 배치 계획을 발표했습니다.

 

마지막으로, 엔드 투 엔드 자율주행차 플랫폼인 NVIDIA Drive Hyperion
TÜV SÜDTÜV Rheinland 같은 세계 최고 수준의 자동차 안전 및 사이버보안 기관의 인증 평가를 통과했습니다.

NVIDIA는 업계 최초로 제3자 인증을 종합적으로 받은 자율주행 플랫폼입니다.

 

좋습니다. 이제 손익계산서(P&L)의 나머지 항목으로 넘어가겠습니다.

GAAP 기준 총이익률(Gross Margin)은 73%,**Non-GAAP 기준 총이익률은 73.5%**였으며,
이는 Blackwell 아키텍처의 첫 출하가 시작되면서 예상대로 전 분기 대비 소폭 하락한 수치입니다.

 

지난 분기에도 언급했듯이, Blackwell은 맞춤형 AI 인프라로서
NVIDIA가 설계한 여러 종류의 칩, 다양한 네트워킹 옵션, 그리고 공랭 및 수랭 방식의 데이터 센터용 구성이 제공됩니다.

우리는 4분기 동안 Blackwell 시스템의 생산 확대, 시스템 가용성 증대, 다양한 구성 옵션 제공 면에서 예상보다 뛰어난 성과를 거두었습니다.

 

Blackwell의 도입이 본격화됨에 따라, 총이익률은 당분간 70% 초반 수준을 유지할 것으로 예상됩니다.
초기에는 고객들이 Blackwell 기반 인프라를 빠르게 구축하려는 수요에 대응하기 위해 생산 속도 확보에 집중하고 있습니다.

러나 Blackwell 생산이 완전히 자리잡게 되면,
비용 절감 여지가 많아지고, 총이익률도 개선되어 회계연도 후반에는 다시 70% 중후반대로 회복될 것으로 전망하고 있습니다.

 

분기별로 보면, GAAP 기준 영업비용은 9% 증가, Non-GAAP 기준 영업비용은 11% 증가했으며,
이는 신제품 출시를 위한 엔지니어링 개발 비용과 컴퓨팅 및 인프라 비용 증가를 반영한 결과입니다.

 

4분기 동안, 우리는 자사주 매입 및 현금 배당의 형태로 총 81억 달러를 주주에게 환원했습니다.

 

이제 1분기 실적 전망으로 넘어가겠습니다.

  • 총매출은 약 430억 달러, 오차범위 ±2%로 예상됩니다.
  • Blackwell 수요는 여전히 강력하며, 1분기에는 Blackwell 출하가 본격적으로 확대될 것으로 예상됩니다.
  •  
  • 데이터 센터 부문과 게이밍 부문 모두 전 분기 대비 성장할 것으로 기대됩니다.
  • 데이터 센터 내에서는 컴퓨트와 네트워킹 모두 전 분기 대비 성장이 예상됩니다.
  •  
  • GAAP 기준 총이익률은 약 70.6%,
    **Non-GAAP 기준 총이익률은 약 71%**로, 오차범위는 ±0.5%포인트입니다.

GAAP 기준 영업비용은 약 52억 달러,
Non-GAAP 기준 영업비용은 약 36억 달러로 예상됩니다.

2026 회계연도 전체 영업비용은 전년 대비 중간 수준(mid-30%)의 성장률을 보일 것으로 전망됩니다.

 

GAAP 및 Non-GAAP 기준 기타 수익(Other income)은 약 4억 달러의 수익으로 예상되며,
이는 비상장 및 상장 주식의 평가손익을 제외한 수치입니다.

 

GAAP 및 Non-GAAP 기준 세율(Tax rate)은 약 17%, 오차범위 ±1%로 예상되며, 일회성(discrete) 항목은 제외한 수치입니다.

보다 자세한 재무 정보는 CFO 코멘터리와 IR(투자자 관계) 웹사이트에서 확인할 수 있으며,
AI 기반 재무 정보 에이전트도 새롭게 제공되고 있습니다.

 

마지막으로 앞으로 예정된 투자자 대상 행사 일정을 알려드립니다:

  • 3월 3일, TD Cowen 헬스케어 컨퍼런스 (보스턴)
  • 3월 5일, 모건스탠리 TMT 컨퍼런스 (샌프란시스코)

이와 같은 행사들을 통해 NVIDIA는 투자자들과의 지속적인 소통을 이어갈 예정입니다.

 

-----------------------------------------

엔비디아는 미국 시간 2월26일 장 마감후 회계년도 2025년4분기 실적 발표.

매출 393억달러, 영업이익 240억달러(영업이익률  61%), 순이익 221억달러(약31조원),

주당순이익 0.89달러로 시장 예상치 상회.

매출 총이익률은 73%였다.

 

데이터센터 매출은 356억달러였고, 블랙웰 매출은 110억 달러였다.

 

Nvidia Sees Sustained AI Growth

 

--------------------------------------------------------------------------------------------------------------------------

2025.02.27

엔비디아, 시장 기대 뛰어넘었다…中·마진 축소는 '과제'

 

엔비디아, 시장 기대 뛰어넘었다…中·마진 축소는 '과제'

젠슨 황 엔비디아 최고경영자가 1월 6일 미국 라스베이거스에서 열린 소비자가전전시회(CES)에서 기조연설을 하고 있다. (사진=AFP)[이데일리 정다슬 기자] 엔비디아가 시장의 예상치를 뛰어넘는 4

v.daum.net

 

 

 

크레스 CFO는 또 딥시크의 R1과 같은 효율적인 모델이 나타나며 엔비디아 GPU 수요가 떨어질 수 있다는 일각의 우려에 대해 반박했다. 그는 “장기적으로 생각하고 추론하는 AI는 한 번의 추론에 비해 작업당 100배 더 많은 컴퓨팅이 필요할 수 있다”고 말했다.

 

황 CEO 역시 “오늘날 우리의 컴퓨팅 대부분은 추론이다”라며 차세대 AI 알고리즘은 현재 컴퓨터 용량의 수백만배가 필요할 것이라고 예상했다.

 

 

-------------------------------------------------------

 

Nvidia's AI Business Sees Continued "Amazing" Demand  엔비디아의 AI 사업, 지속적인 "놀라운" 수요 확인

 

Nvidia's results for the fourth quarter of fiscal 2025 provided a dose of optimism during what has been a volatile few weeks for AI bulls, reporting blockbuster revenue and earnings-per-share growth that topped sky-high analyst expectations.

 

엔비디아의 2025 회계연도 4분기 실적은 최근 몇 주간 변동성이 컸던 AI 시장에서 낙관적인 전망을 제시했다. 회사는 분석가들의 높은 기대치를 뛰어넘는 폭발적인 매출과 주당순이익(EPS) 성장을 기록했다.

 

Revenue from data centers accounted for 90% of Nvidia's total, with AI-related demand more than offsetting setbacks in other parts of the business. Networking revenue fell 9% year over year, which the company said should be a temporary hiccup as it transitions to new products. Sales of gaming chips also fell 11% year over year.

 

데이터 센터 매출이 엔비디아 전체 매출의 90%를 차지했으며, AI 관련 수요가 다른 사업 부문의 부진을 상쇄했다. 네트워킹 부문 매출은 전년 대비 9% 감소했지만, 회사 측은 신제품 전환 과정에서 발생한 일시적인 문제라고 설명했다. 또한, 게이밍 칩 매출도 전년 대비 11% 감소했다.

 

CEO Jensen Huang said demand for Nvidia's Blackwell chip, its latest chip for powering AI servers, "is amazing" and predicted more to come. "AI is advancing at light speed as agentic AI and physical AI set the stage for the next wave of AI to revolutionize the largest industries," Huang said.

 

엔비디아 CEO 젠슨 황, "블랙웰 칩에 대한 수요는 놀랍다"

엔비디아의 CEO 젠슨 황은 AI 서버를 위한 최신 칩인 블랙웰(Blackwell) 칩에 대한 수요가 "놀랍다"고 말하며, 앞으로 더 많은 수요가 이어질 것으로 전망했다. 그는 "AI는 빛의 속도로 발전하고 있으며, 에이전틱 AI와 물리적 AI가 AI의 다음 혁신 물결을 준비하면서 주요 산업들을 변화시킬 것"이라고 밝혔다.

 

With demand comes pricing power. Costs related to Blackwell ate into margins, but Nvidia was still able to post a gross margin of 73% in the quarter, generating $24 billion in operating income on its $39.3 billion in revenue.

 

수요 증가와 함께 가격 결정력도 커지고 있다. 블랙웰 칩과 관련된 비용이 이익률에 영향을 주었지만, 엔비디아는 여전히 73%의 높은 매출 총이익률을 기록하며 매출 393억 달러, 영업이익 240억 달러를 달성했다.

 

Nvidia said inventory at the end of the quarter totaled $10.1 billion, up from $7.7 billion in the prior period. Typically, rising inventories can be viewed as a warning sign. But in Nvidia's case, it could simply be that the company is stocking up chips to meet the demand for its top-end products.

 

한편, 엔비디아의 분기 말 재고 규모는 101억 달러로 이전 분기의 77억 달러에서 증가했다. 일반적으로 재고 증가가 경고 신호로 해석될 수 있지만, 엔비디아의 경우 고급 제품에 대한 강한 수요를 충족하기 위해 칩을 사전에 비축하고 있는 것으로 보인다.

 

--------------------------------

Nvidia (NVDA) Q4 2025 Earnings Call Transcript

 

Nvidia (NVDA) Q4 2025 Earnings Call Transcript | The Motley Fool

NVDA earnings call for the period ending December 31, 2024.

www.fool.com

 

 

감사합니다, 스튜어트. 4분기 역시 사상 최대 실적을 기록했습니다. 매출은 393억 달러로 전 분기 대비 12%, 전년 동기 대비 78% 증가했으며, 당초 전망치인 375억 달러를 웃돌았습니다. 2025 회계연도 전체 매출은 1,305억 달러로, 전년 대비 114% 증가했습니다.

 

먼저 데이터 센터 부문부터 살펴보겠습니다. 2025 회계연도 데이터 센터 매출은 1,152억 달러로, 전년 대비 두 배 이상

증가했습니다. 4분기 데이터 센터 매출은 356억 달러로 역시 사상 최대치를 기록했으며, 전 분기 대비 16%,

전년 동기 대비 93% 증가했습니다.

 

이는 Blackwell 제품군의 출하가 본격적으로 시작되고 Hopper 200 시리즈의 지속적인 성장 덕분입니다.

특히 4분기 Blackwell 매출은 우리의 예상치를 상회했습니다.

 

우리는 강력한 수요에 대응하기 위해 Blackwell 제품에서 110억 달러의 매출을 기록했습니다. 이는 회사 역사상 가장 빠른 신제품 확산으로, 속도와 규모 면에서 전례가 없는 수준입니다. Blackwell은 다양한 구성으로 연중 생산 중이며, 공급을 빠르게 확대하면서 고객의 도입도 빠르게 늘고 있습니다. 4분기 데이터 센터의 컴퓨팅 부문 매출은 전 분기 대비 18%, 전년 동기 대비 두 배 이상 증가했습니다.

 

고객들은 차세대 첨단 AI 모델을 학습시키고 새로운 AI 기능을 구현하기 위해 인프라 확장을 서두르고 있습니다. Blackwell 제품을 활용하면 10만 개 이상의 GPU로 구성된 대규모 클러스터가 일반화될 전망입니다. 이미 이러한 규모의 인프라에 대한 출하가 여러 건 시작된 상태입니다.

 

모델 학습 이후의 커스터마이징 수요 역시 NVIDIA의 인프라와 소프트웨어에 대한 수요를 자극하고 있으며, 개발자들과 기업들은 파인튜닝, 강화학습, 디스틸레이션과 같은 기법을 통해 도메인 특화 모델로 최적화하는 작업을 활발히 진행하고 있습니다.

 

Hugging Face alone hosts over 90,000 derivatives freighted from the Llama foundation model. The scale of post-training and model customization is massive and can collectively demand orders of magnitude, more compute than pretraining.

 

Hugging Face에는 Llama 기반의 파운데이션 모델에서 파생된 모델만 해도 9만 개가 넘게 등록되어 있습니다.

이처럼 모델 학습 이후의 커스터마이징 작업은 규모가 방대하며, 사전 학습보다 수십 배 이상의 컴퓨팅 파워를

요구할 수 있습니다.

 

Our inference demand is accelerating, driven by test time scaling and new reasoning models like OpenAI's o3, DeepSeek-R1, and Grok 3. Long-thinking reasoning AI can require 100x more compute per task compared to one-shot inferences.

 

현재 추론(inference)에 대한 수요는 빠르게 증가하고 있으며, 이는 테스트 단계에서의 연산 확대(test time scaling)와 OpenAI의 o3, DeepSeek-R1, Grok 3 같은 새로운 추론 중심 모델들의 등장에 기인합니다. 이러한 ‘심층 사고(reasoning)’형 AI는 단발성 추론(one-shot inference)보다 작업당 최대 100배 더 많은 연산을 필요로 합니다.

 

Blackwell은 이러한 추론 중심 AI를 위해 설계된 아키텍처입니다. Blackwell은 기존 Hopper 100 대비 토큰 처리량(token throughput)을 최대 25배 높이고, 비용은 20배 낮추어 reasoning AI 모델의 성능을 비약적으로 향상시킵니다.

 

또한 이 혁신적인 Transformer Engine은 대규모 언어 모델(LLM)과 전문가 혼합 모델(Mixture of Experts) 기반의 추론에 최적화되어 있습니다.

 

NVLink Domain은 PCIe Gen 5 대비 14배 더 높은 처리량을 제공해, 초대형 AI 시스템이 요구하는 응답 속도, 처리 효율성, 비용 절감 측면에서 강력한 경쟁력을 제공합니다.

 

업계 전반의 기업들이 NVIDIA의 전체 STAG 추론 플랫폼을 활용해 성능을 끌어올리고 비용을 대폭 절감하고 있습니다. 예를 들어, Now는 NVIDIA의 TensorRT를 스크린샷 기능에 적용하여 추론 처리량을 세 배로 늘리고 비용을 66% 절감했습니다.

 

Perplexity는 매달 4억 3,500만 건의 쿼리를 처리하며, NVIDIA Triton Inference Server와 TensorRT-LLM을 통해 추론 비용을 3배 절감했습니다. Microsoft Bing도 NVIDIA의 TensorRT 및 가속화 라이브러리를 활용해 수십억 개의 이미지에 대한 비주얼 검색 속도를 5배 향상시키고, 총소유비용(TCO)을 크게 줄이는 성과를 거뒀습니다.

 

Blackwell에 대한 추론(inference) 수요는 매우 큽니다. 초기 GB200 도입 물량 중 상당수가 추론 용도로 배정되었으며, 이는 새로운 아키텍처에서 처음 있는 일입니다.

 

Blackwell은 사전 학습(pretraining), 후속 학습(post-training), 추론까지 AI 워크플로 전반을 아우르며, 클라우드, 온프레미스, 엔터프라이즈 등 모든 환경에서 활용될 수 있도록 설계되었습니다.

 

CUDA의 프로그래머블 아키텍처는 모든 AI 모델과 4,400개 이상의 애플리케이션을 가속화함으로써, 급변하는 시장 속에서도 대규모 인프라 투자에 대한 미래 경쟁력을 보장합니다.

 

우리는 그 어떤 기업도 따라올 수 없는 성능과 혁신 속도를 보여주고 있습니다. 지난 2년간 추론 비용을 무려 200배 줄였고, 업계 최저 TCO(총소유비용)와 최고 ROI(투자수익률)를 실현했습니다. 또한 NVIDIA의 전 스택 최적화와 590만 명에 달하는 개발자 생태계는 지속적으로 고객의 비용 효율성과 수익성을 개선해주고 있습니다.

 

In Q4, large CSPs represented about half of our data center revenue. and these sales increased nearly 2x year on year. Large CSPs were some of the first to stand up Blackwell with Azure, GCP, AWS, and OCI bringing GB200 systems to cloud regions around the world to meet certain surging customer demand for AI.

 

 

Regional cloud hosting NVIDIA GPUs increased as a percentage of data center revenue, reflecting continued AI factory build-outs globally and rapidly rising demand for AI reasoning models and agents.

 

4분기에는 대형 클라우드 서비스 제공업체(CSP)가 데이터 센터 매출의 약 절반을 차지했으며, 이들의 매출은 전년 대비 거의 두 배 증가했습니다. Azure, GCP, AWS, OCI 등 주요 CSP들은 Blackwell을 가장 먼저 도입한 고객들 중 하나로, 세계 각지의 클라우드 리전에 GB200 시스템을 배치하며 폭증하는 AI 수요에 대응하고 있습니다.

 

또한 지역 기반 클라우드 업체들이 NVIDIA GPU를 사용하는 비중도 데이터 센터 매출에서 계속 증가하고 있으며, 이는 글로벌 차원의 AI 팩토리 구축 확대와 함께 AI 추론 모델 및 AI 에이전트에 대한 수요가 빠르게 증가하고 있음을 보여줍니다.

 

We've launched a 100,000 GB200 cluster-based incidents with NVLink Switch and Quantum 2 InfiniBand. Consumer Internet revenue grew 3x year on year, driven by an expanding set of generative AI and deep learning use cases. These include recommender systems, vision, language understanding, synthetic data generation search, and agentic AI. For example, xAI is adopting the GB200 to train and inference its next generation of Grok AI models.

 

우리는 NVLink 스위치Quantum-2 InfiniBand를 활용한 10만 개 규모의 GB200 클러스터 기반 인스턴스를 출시했습니다. 소비자 인터넷 부문 매출은 생성형 AI 및 딥러닝 활용 사례의 확대로 인해 전년 대비 3배 성장했습니다. 주요 활용 분야로는 추천 시스템, 컴퓨터 비전, 언어 이해, 합성 데이터 생성, 검색, 그리고 에이전트 기반 AI(agentic AI) 등이 있습니다. 예를 들어, xAI는 차세대 Grok AI 모델의 학습과 추론을 위해 GB200을 도입하고 있습니다.

 

Meta's cutting-edge Andromeda advertising engine runs on NVIDIA's Grace Hopper Superchip serving vast quantities of ads across Instagram, Facebook applications. Andromeda harnesses Grace Hopper's fast interconnect and large memory to boost inference throughput by 3x, enhance ad personalization, and deliver meaningful jumps in monetization and ROI.

 

Meta의 최첨단 광고 엔진인 Andromeda는 NVIDIA의 Grace Hopper 슈퍼칩 기반으로 구동되며, Instagram과 Facebook 앱 전반에 걸쳐 대규모 광고를 서비스합니다. Andromeda는 Grace Hopper의 빠른 인터커넥트와 대용량 메모리를 활용해 추론 처리량을 3배 증가시키고, 광고 개인화 성능을 높이며, 수익화와 ROI를 크게 개선하고 있습니다.

 

Enterprise revenue increased nearly 2x year on accelerating demand for model fine-tuning, RAG, and agentic AI workflows, and GPU-accelerated data processing. We introduced NVIDIA Llama Nemotron model family NIMs to help developers create and deploy AI agents across a range of applications including customer support, fraud detection, and product supply chain and inventory management.

 

엔터프라이즈 부문 매출도 전년 대비 두 배 가까이 증가했으며, 이는 모델 파인튜닝, RAG(Retrieval-Augmented Generation), 에이전트형 AI 워크플로우, GPU 가속 데이터 처리에 대한 수요 증가 덕분입니다. 우리는 개발자들이 고객 지원, 사기 탐지, 제품 공급망 및 재고 관리 등 다양한 응용 분야에서 AI 에이전트를 생성하고 배포할 수 있도록 돕기 위해 NVIDIA Llama Nemotron 모델 패밀리와 NIMs(NVIDIA Inference Microservices) 를 출시했습니다.

 

SAP, ServiceNow 등 선도적인 AI 에이전트 플랫폼 제공업체들이 새로운 모델을 가장 먼저 도입한 고객들 중 하나입니다. 헬스케어 분야의 대표 기업인 IQVIA, Illumina, Mayo Clinic, Arc Institute는 NVIDIA의 AI를 활용해 신약 개발 속도를 높이고, 유전체 연구를 고도화하며, 생성형 및 에이전트 기반 AI를 통해 차세대 의료 서비스를 선도하고 있습니다.

 

AI가 디지털 영역을 넘어 물리적 세계로 확장되면서, NVIDIA의 인프라와 소프트웨어 플랫폼은 로보틱스 및 물리 기반 AI 개발을 위한 핵심 도구로 채택되고 있습니다. 그 대표적인 초기이자 대규모 적용 분야가 바로 로보틱스와 자율주행차이며, 사실상 모든 자율주행차(AV) 기업들이 데이터 센터와 차량 내, 혹은 양쪽 모두에서 NVIDIA 플랫폼을 기반으로 개발을 진행하고 있습니다.

 

NVIDIA's automotive vertical revenue is expected to grow to approximately $5 billion this fiscal year. At CES, Hyundai Motor Group announced it is adopting NVIDIA technologies to accelerate AV and robotics development and smart factory initiatives. Vision transformers, self-supervised learning, multimodal sensor fusion, and high-fidelity simulation are driving breakthroughs in AV development and will require 10x more compute. At CES, we announced the NVIDIA COSMO World Foundation model platform.

 

NVIDIA의 자동차 부문 매출은 올해 회계연도에 약 50억 달러까지 성장할 것으로 예상됩니다. **CES(국제가전박람회)**에서 현대자동차그룹은 자율주행차(AV)와 로보틱스 개발, 스마트 팩토리 구현을 가속화하기 위해 NVIDIA 기술을 도입한다고 발표했습니다.

 

비전 트랜스포머(Vision Transformers), 자기지도학습(Self-Supervised Learning), 멀티모달 센서 융합(Multimodal Sensor Fusion), 고정밀 시뮬레이션(High-Fidelity Simulation) 등이 자율주행 기술의 혁신을 이끌고 있으며, 이로 인해 기존보다 10배 이상의 컴퓨팅 파워가 필요해질 전망입니다.

 

또한 CES에서 NVIDIA는 새로운 COSMO World 파운데이션 모델 플랫폼을 발표하며, 자율주행 및 물리 기반 AI 기술 전반에 걸친 생태계 확장을 본격화했습니다.

 

언어 파운데이션 모델이 언어 AI를 혁신한 것처럼, Cosmos로보틱스를 혁신할 물리 기반 AI 플랫폼입니다. Uber와 같은 모빌리티 및 자동차 기업들이 이 플랫폼을 가장 먼저 도입하고 있습니다.

 

지역별로 보면, 데이터 센터 매출의 순차적 성장률은 미국이 가장 높았으며, 이는 Blackwell의 초기 공급 확대에 따른 것입니다. 전 세계적으로 컴퓨팅 인프라에 대한 수요가 폭증하면서, 각국은 자국의 AI 생태계를 본격적으로 구축하고 있습니다.

 

예를 들어, 프랑스의 1,000억 유로 AI 투자EU의 2,000억 유로 규모 AI 투자 계획은 향후 몇 년 안에 글로벌 AI 인프라 재편을 보여주는 대표적인 사례입니다.

 

반면, 중국의 데이터 센터 매출 비중수출 규제가 시작된 이후의 수준을 여전히 밑돌고 있습니다. 규제에 변화가 없는 한, 중국향 출하는 현재 수준에서 유지될 것으로 보고 있으며, 중국 내 데이터 센터 시장은 여전히 높은 경쟁이 지속되는 환경입니다.

 

우리는 앞으로도 수출 규제를 준수하면서 고객을 지원해 나갈 것입니다. 네트워킹 부문 매출은 전 분기 대비 3% 감소했지만, GPU 컴퓨팅 시스템과 결합된 네트워킹 비중은 75% 이상으로 여전히 견조한 수준입니다.

 

현재 우리는 소규모 NVLink 8 및 InfiniBand 기반 구조에서, 대규모 NVLink 72 및 Spectrum-X 기반 구조로 전환 중입니다.

Spectrum-X와 NVLink 스위치 매출은 증가세를 보이고 있으며, 이는 네트워킹 부문에서의 새로운 성장 축으로 작용하고 있습니다. 우리는 네트워킹 부문이 1분기부터 다시 성장세로 전환될 것으로 기대하고 있습니다.

 

AI 시대에는 새로운 차원의 네트워킹이 필요하며, NVIDIA는 이러한 수요에 대응하기 위해 대규모 확장형 연산(scale-up compute)을 위한 NVLink 스위치 시스템을 제공합니다.

 

대규모 확장(scale-out) 환경을 위해 NVIDIA는 고성능 컴퓨팅(HPC) 슈퍼컴퓨터Quantum InfiniBand이더넷 환경용 Spectrum-X를 제공합니다. 특히 Spectrum-X는 AI 컴퓨팅에 최적화된 이더넷 솔루션으로, 이미 큰 성공을 거두고 있습니다.

 

Microsoft Azure, OCI(Oracle Cloud Infrastructure), CoreWeave 등 주요 클라우드 업체들이 AI 팩토리 구축에

Spectrum-X를 채택하고 있으며, 최초의 Stargate 데이터 센터 또한 Spectrum-X를 활용할 예정입니다.

 

또한, 어제 Cisco는 Spectrum-X를 자사 네트워킹 포트폴리오에 통합한다고 발표했습니다. 광범위한 엔터프라이즈

고객 기반과 글로벌 인프라를 바탕으로, Cisco는 NVIDIA 이더넷 기술을 전 산업 분야에 확산시킬 계획입니다.


이제 게이밍 및 ARPCs(고급 개인용 컴퓨팅) 부문으로 넘어가겠습니다.

  • 게이밍 부문 매출은 25억 달러로, 전 분기 대비 22% 감소, 전년 대비 11% 감소했습니다.
  • 반면, 연간 기준 매출은 114억 달러로 전년 대비 9% 증가했으며, 연말 성수기 동안의 수요는 견고했습니다.
  • 다만 4분기 출하는 공급 제약으로 인해 영향을 받았으며, 1분기에는 공급 확대로 인해 강한 순차적 성장이 예상됩니다.

새롭게 출시된 GeForce RTX 50 시리즈 데스크톱 및 노트북 GPU게이머, 크리에이터, 개발자를 위해 설계되었으며,

AI와 그래픽 기술을 결합해 시각 컴퓨팅의 패러다임을 재정의하고 있습니다.

  • Blackwell 아키텍처 기반
  • 5세대 텐서 코어, 4세대 레이 트레이싱(RT) 코어
  • 최대 400 AI TOPS 처리 성능

이 GPU들은 성능을 2배 향상시키고, 뉴로 셰이더(neuro shaders), 디지털 휴먼 기술, 지오메트리 및 조명 향상

AI 기반의 새로운 렌더링 기술을 지원합니다.

 

또한 DLSS 4AI 프레임 생성을 통해 렌더링 한 프레임을 최대 8배까지 프레임 레이트 향상시켜주며, 업계 최초로 실시간 트랜스포머 모델을 시각적 렌더링에 적용해, 2배 더 많은 파라미터4배 이상의 연산량으로 전례 없는 수준의 시각적 충실도를 구현합니다.

 

 

 

 

 

-----------------

 

Joe Moore -- JPMorgan Chase and Company -- Analyst Morgan Stanley, actually. Thank you. I wonder if you could talk about GB200 at CES, you sort of talked about the complexity of the rack-level systems and the challenges you have. And then as you said in the prepared remarks, we've seen a lot of general availability. Where are you in terms of that ramp? Are there still bottlenecks to consider at a systems level above and beyond the chip level? And just have you maintained your enthusiasm for the NVL72 platforms?.

 

조 모어 – JP모건 체이스 앤 컴퍼니 – 애널리스트

모건 스탠리입니다, 사실. 감사합니다.

GB200에 대해 이야기해 주실 수 있을까요? CES에서 랙 수준 시스템의 복잡성과 관련된 문제들에 대해 언급하셨습니다. 그리고 준비된 발언에서 말씀하셨듯이, 우리는 많은 일반 공급(General Availability)을 확인할 수 있었습니다.

현재 해당 제품의 확장(Ramp) 과정에서 어느 단계에 있는지 궁금합니다. 칩 수준을 넘어 시스템 수준에서 여전히 고려해야 할 병목 현상이 있나요? 그리고 NVL72 플랫폼에 대한 기대감을 계속 유지하고 계신가요?

 

Jensen Huang -- President and Chief Executive Officer

Well, I'm more enthusiastic today than I was at CES. And the reason for that is because we've shipped a lot more since CES. We have some 350 plants manufacturing the 1.5 million components that go into each one of the Blackwell racks, Grace Blackwell racks. Yes, it's extremely complicated. And we successfully and incredibly ramped up Grace Blackwell, delivering some $11 billion of revenues last quarter. We're going to have to continue to scale as demand is quite high, and customers are anxious and impatient to get their Blackwell systems. You've probably seen on the web, a fair number of celebrations about Grace Blackwell systems coming online and we have them, of course. We have a fairly large installation of Grace Blackwell for our own engineering and our own design teams and software teams. CoreWeave has now been quite public about the successful bring-up of theirs. Microsoft has, of course, OpenAI has, and you're starting to see many come online. And so, I think the answer to your question is nothing is easy about what we're doing, but we're doing great, and all of our partners are doing great.

 

젠슨 황 – 사장 겸 최고경영자(CEO)

음, CES 때보다 지금 더 기대감이 큽니다. 그 이유는 CES 이후로 훨씬 더 많은 제품을 출하했기 때문입니다. 우리는 350여 개의 공장에서 블랙웰 랙, 그레이스 블랙웰 랙 하나에 들어가는 150만 개의 부품을 생산하고 있습니다. 네, 이는 굉장히 복잡한 과정입니다.

 

그러나 우리는 그레이스 블랙웰을 성공적으로 그리고 엄청난 속도로 확장하여 지난 분기에 약 110억 달러의 매출을 기록했습니다. 수요가 매우 높기 때문에 앞으로도 지속적으로 확장해 나가야 하며, 고객들은 블랙웰 시스템을 받기를 몹시 기대하고 초조해하고 있습니다.

 

아마도 인터넷에서 그레이스 블랙웰 시스템이 가동되는 것과 관련된 많은 축하 소식을 보셨을 것입니다. 우리 역시 자체 엔지니어링 및 디자인, 소프트웨어 팀을 위해 상당한 규모의 그레이스 블랙웰 시스템을 구축해 운영하고 있습니다.

 

CoreWeave는 최근 자신들의 시스템이 성공적으로 가동되었다는 소식을 공개적으로 발표했습니다. 마이크로소프트도, 물론 오픈AI도 마찬가지이며, 점점 더 많은 곳에서 시스템이 온라인으로 전환되고 있습니다.

따라서 질문에 대한 답변을 드리자면, 우리가 하고 있는 일이 결코 쉽지는 않지만, 우리는 매우 잘해내고 있으며, 우리의 모든 파트너들 역시 훌륭하게 수행하고 있습니다.

 

Operator Your next question comes from the line of Vivek Arya with Bank of America Securities.

Please go ahead. Vivek Arya -- Analyst Thank you for taking my question. Colette if you wouldn't mind confirming if Q1 is the bottom for gross margins? And then Jensen, my question is for you. What is on your dashboard to give you the confidence that the strong demand can sustain into next year? And has DeepSeek and whatever innovations they came up with, has that changed that view in any way? Thank you.

 

진행자

다음 질문은 뱅크 오브 아메리카 증권의 비벡 아리아님께서 주셨습니다. 질문해 주세요.

비벡 아리아 – 애널리스트

제 질문을 받아주셔서 감사합니다.

코렛, 1분기가 총마진(gross margin)의 바닥인지 확인해 주실 수 있을까요?

그리고 젠슨, 제 질문은 당신께 드리는 것입니다. 강한 수요가 내년까지 지속될 것이라는 확신을 주는 요소가 무엇인가요? 그리고 DeepSeek이 발표한 혁신과 그들이 이루어낸 성과가 이 전망에 어떤 영향을 미쳤나요? 감사합니다.

 

Colette M. Kress -- Chief Financial Officer, Executive Vice President

 

Well, let me first take the first part of the question there regarding the gross margin. During our Blackwell ramp, our gross margins will be in the low 70s. At this point, we are focusing on expediting our manufacturing, expediting our manufacturing to make sure that we can provide to customers as soon as possible. Our Blackwell is fully round. And once it does -- I'm sorry, once our Blackwell fully rounds, we can improve our cost and our gross margin. So, we expect to probably be in the mid-70s later this year. Walking through what you heard Jensen speak about the systems and their complexity, they are customizable in some cases. They've got multiple networking options. They have liquid-cooled and water-cooled. So, we know there is an opportunity for us to improve these gross margins going forward. But right now, we are going to focus on getting the manufacturing complete and to our customers as soon as possible.

 

코렛 M. 크레스 – 최고재무책임자(CFO), 수석 부사장

우선 총마진(gross margin)에 대한 첫 번째 질문에 답변드리겠습니다. 블랙웰(Blackwell) 제품군의 확장(Ramp) 과정에서 우리의 총마진은 70% 초반대에 머물 것으로 예상됩니다. 현재 우리는 제조 속도를 최대한 높이는 데 집중하고 있으며, 이를 통해 고객들에게 가능한 한 빨리 제품을 제공하려고 합니다.

 

블랙웰이 완전히 안정화되면(fully rounds), 비용 절감과 총마진 개선이 가능할 것입니다. 따라서 올해 말에는 총마진이 70% 중반대로 올라갈 것으로 예상합니다.

 

젠슨이 앞서 설명한 것처럼, 시스템은 상당히 복잡하며 일부는 맞춤형(customizable)으로 제공됩니다. 또한 다양한 네트워킹 옵션을 지원하며, 액체 냉각(liquid-cooled)과 수냉식(water-cooled) 방식도 포함되어 있습니다.

 

이러한 요소들을 고려할 때, 향후 총마진을 더욱 개선할 기회가 있을 것으로 보고 있습니다. 하지만 지금 당장은 제조를 완벽하게 마치고 고객들에게 신속하게 제품을 제공하는 데 집중할 것입니다.

 

Jensen Huang -- President and Chief Executive Officer

 

We know several things, Vivek. We have a fairly good line of sight of the amount of capital investment that data centers are building out toward. We know that going forward, the vast majority of software is going to be based on machine learning.

And so, accelerated computing and generative AI, reasoning AI are going to be the type of architecture you want in your data center.

 

젠슨 황 – 사장 겸 최고경영자(CEO)

비벡, 우리는 몇 가지 중요한 점을 알고 있습니다.

우리는 데이터 센터가 구축하는 자본 투자 규모를 상당히 명확하게 파악하고 있습니다. 앞으로 대부분의 소프트웨어가 머신러닝을 기반으로 하게 될 것이기 때문에, 가속 컴퓨팅(accelerated computing)과 생성형 AI(generative AI), 추론형 AI(reasoning AI)는 데이터 센터에서 필수적인 아키텍처가 될 것입니다.

 

We have, of course, forecasts and plans from our top partners. And we also know that there are many innovative, really exciting start-ups that are still coming online as new opportunities for developing the next breakthroughs in AI, whether it's agentic AIs, reasoning AI, or physical AIs.

The number of start-ups are still quite vibrant and each one of them needs a fair amount of computing infrastructure.

 

또한, 우리의 주요 파트너들로부터 받은 예측과 계획을 바탕으로 시장을 전망하고 있습니다. 그리고 여전히 많은 혁신적이고 흥미로운 스타트업들이 등장하고 있으며, 이들은 새로운 AI 혁신을 이끌어갈 기회가 될 것입니다. 에이전트형 AI(agentic AI), 추론형 AI(reasoning AI), 물리적 AI(physical AI) 등 다양한 분야에서 돌파구를 마련하려는 스타트업들이 활발히 활동하고 있으며, 이들 모두 상당한 컴퓨팅 인프라를 필요로 합니다.

 

 And so, I think the -- whether it's the near-term signals or the midterm signals, near-term signals, of course, are POs and forecasts and things like that.

 

따라서 단기적인 신호이든, 중기적인 신호이든 긍정적인 요소들이 많습니다. 단기적인 신호로는 구매 주문(PO)과 파트너들의 수요 예측(forecasts) 등이 있으며, 이를 통해 수요의 지속 가능성을 파악할 수 있습니다.

 

Midterm signals would be the level of infrastructure and capex scale-out compared to previous years. And then the long-term signals has to do with the fact that we know fundamentally software has changed from hand-coding that runs on CPUs to machine learning and AI-based software that runs on GPUs and accelerated computing systems.

 

중기적인 신호(midterm signals)로는 인프라 구축 수준과 자본 지출(capex) 확대 규모를 이전 연도와 비교하는 것이 포함됩니다.

 

장기적인 신호(long-term signals)와 관련해서는, 우리가 근본적으로 알고 있는 사실이 있습니다. 과거에는 소프트웨어가 CPU에서 실행되는 방식으로 사람이 직접 코딩(hand-coding)했지만, 이제는 머신러닝과 AI 기반 소프트웨어가 GPU 및 가속 컴퓨팅 시스템에서 실행되는 방식으로 변화했습니다.

 

And so, we have a fairly good sense that this is the future of software. And then maybe as you roll it out, another way to think about that is we've really only tapped consumer AI and search and some amount of consumer generative AI, advertising, recommenders, kind of the early days of software.

 

따라서 우리는 이것이 소프트웨어의 미래라는 확신을 가지고 있습니다.

또한, 이를 더 넓게 보면, 지금까지 AI가 적용된 분야는 소비자 AI(consumer AI)와 검색(search), 일부 생성형 AI(consumer generative AI), 광고(advertising), 추천 시스템(recommenders) 등 주로 초기 단계의 소프트웨어 활용에 집중되어 있었습니다.

 

The next wave is coming, agentic AI for enterprise, physical AI for robotics, and sovereign AI as different regions build out their AI for their own ecosystems. And so, each one of these are barely off the ground, and we can see them. We can see them because, obviously, we're in the center of much of this development and we can see great activity happening in all these different places and these will happen. So, near term, midterm, long term.

 

그러나 다음 물결이 다가오고 있습니다.

  • 기업용 에이전트형 AI(agentic AI for enterprise)
  • 로봇 공학을 위한 물리적 AI(physical AI for robotics)
  • 각 지역이 자체 생태계를 구축하기 위한 독립적인 AI(sovereign AI)

이러한 분야는 이제 막 시작된 단계에 불과하지만, 우리는 그 발전을 직접 목격하고 있습니다. 우리는 AI 개발의 중심에 있기 때문에, 각 영역에서 활발한 활동이 이루어지고 있으며, 이는 실제로 실현될 것입니다.

즉, 단기적인 신호(near term), 중기적인 신호(midterm), 장기적인 신호(long term) 모두 명확하게 확인할 수 있습니다.

 

Operator

Your next question comes from the line of Harlan Sur with JPMorgan. Please go ahead.

Harlan Sur — Analyst

Yeah. Good afternoon. Thanks for taking my question. Your next-generation Blackwell Ultra is set to launch in the second half of this year, in line with the team's annual product cadence.

Jensen, can you help us understand the demand dynamics for Ultra given that you'll still be ramping the current generation Blackwell solutions? How do your customers and the supply chain also manage the simultaneous ramps of these two products? And is the team still on track to execute Blackwell Ultra in the second half of this year?

 

진행자

다음 질문은 JP모건의 할란 서(Harlan Sur) 애널리스트님께서 주셨습니다. 질문해 주세요.

 

할란 서 – 애널리스트

네, 좋은 오후입니다. 제 질문을 받아주셔서 감사합니다.

 

차세대 Blackwell Ultra가 올해 하반기에 출시될 예정인데, 이는 팀의 연간 제품 출시 주기와 일치합니다.

젠슨, 현재 세대의 Blackwell 솔루션이 여전히 확장(Ramp) 중인 상황에서 Ultra에 대한 수요 역학(Demand Dynamics)을 어떻게 이해하면 될까요? 고객과 공급망(Supply Chain)은 이 두 제품을 동시에 확장해 나가는 과정을 어떻게 관리하나요?

그리고 팀은 여전히 올해 하반기에 Blackwell Ultra를 출시할 계획을 차질 없이 진행하고 있나요?

 

Jensen Huang — President and Chief Executive Officer

Yes. Blackwell Ultra is second half. As you know, the first Blackwell was we had a hiccup that probably cost us a couple of months. We're fully recovered, of course.

The team did an amazing job recovering and all of our supply chain partners and just so many people helped us recover at the speed of light. 

 

젠슨 황 – 사장 겸 최고경영자(CEO)

네, Blackwell Ultra는 올해 하반기에 출시됩니다.

잘 아시겠지만, 첫 번째 Blackwell 제품은 약간의 차질(hiccup)로 인해 몇 개월 정도 일정이 지연되었습니다. 하지만 우리는 완전히 회복했으며,

우리 팀은 놀라운 복구 작업을 수행했고, 모든 공급망 파트너들과 수많은 협력자들이 마치 빛의 속도로 회복할 수 있도록 도와주었습니다.

 

And so, now we've successfully ramped production of Blackwell. But that doesn't stop the next train. The next train is on an annual rhythm and Blackwell Ultra with new networking, new memories, and of course, new processors, and all of that is coming online.

 

현재 Blackwell의 생산을 성공적으로 확대(ramp)했지만, 이것이 다음 제품 출시를 멈추지는 않습니다.

다음 제품은 연간 출시 주기에 맞춰 진행되며, Blackwell Ultra는 새로운 네트워킹, 새로운 메모리, 그리고 새로운 프로세서를 포함한 혁신적인 기능과 함께 출시될 예정입니다.

 

We have been working with all of our partners and customers, laying this out. They have all of the necessary information, and we'll work with everybody to do the proper transition.

 

우리는 모든 파트너 및 고객들과 협력하여 이 계획을 수립해 왔습니다. 그들은 필요한 모든 정보를 갖추고 있으며, 우리는 모두와 협력하여 원활한 전환이 이루어지도록 할 것입니다.

 

This time between Blackwell and Blackwell Ultra, the system architecture is exactly the same. It's a lot harder going from Hopper to Blackwell because we went from an NVLink 8 system to an NVLink 72-based system.

 

이번 Blackwell에서 Blackwell Ultra로의 전환은 시스템 아키텍처가 완전히 동일하기 때문에 훨씬 수월합니다.

반면, Hopper에서 Blackwell로의 전환은 훨씬 더 어려웠습니다. 우리는 NVLink 8 시스템에서 NVLink 72 기반 시스템으로 이동해야 했기 때문압니다.

 

So, the chassis, the architecture of the system, the hardware, the power delivery, all of that had to change. This was quite a challenging transition.

 

섀시(chassis),시스템 아키텍처,하드웨어와 전력 공급 시스템등

이 모든 것이 변경되어야 했습니다. 이는 매우 도전적인 전환 과정이었습니다.

 

But the next transition will slot right in Blackwell Ultra will slot right in. We've also already revealed and been working very closely with all of our partners on the click after that.

 

하지만 이번 전환은 기존 Blackwell과 동일한 구조이므로 Blackwell Ultra가 자연스럽게 자리 잡을 수 있습니다.

또한, 그 이후의 제품도 이미 공개했으며, 모든 파트너들과 긴밀하게 협력하고 있습니다.

 

And the click after that is called Vera Rubin and all of our partners are getting up to speed on the transition of that and so preparing for that transition. And again, we're going to provide a big, huge step-up. And so, come to GTC, and I'll talk to you about Blackwell Ultra, Vera Rubin and then show you what we place after that. Really exciting new products to come to GTC piece.

 

다음 단계는 Vera Rubin이며, 우리 파트너들은 이 전환을 준비하는 과정에서 기술을 익혀가고 있습니다.

그리고 다시 한 번 크게 도약하는(step-up) 신제품을 제공할 것입니다.

GTC 행사에 오시면,

  • Blackwell Ultra
  • Vera Rubin
  • 그리고 그 이후의 차세대 제품

에 대해 소개할 예정이니, 많은 기대 부탁드립니다. 정말 흥미로운 신제품들이 기다리고 있습니다!

 

Operator

Your next question comes from the line of Timothy Arcuri with UBS. Please go ahead.

 

Timothy Arcuri — Analyst

Thanks a lot. Jensen, we heard a lot about custom ASICs. Can you kind of speak to the balance between customer ASIC and merchant GPU? We hear about some of these heterogeneous superclusters to use both GPU and ASIC. Is that something customers are planning on building? Or will these infrastructures remain fairly distinct? Thanks.

 

진행자

다음 질문은 UBS의 티모시 아큐리(Timothy Arcuri) 애널리스트님께서 주셨습니다. 질문해 주세요.

티모시 아큐리 – 애널리스트

감사합니다.

젠슨, 최근 **맞춤형 ASIC(Custom ASIC)**에 대한 이야기가 많이 나오고 있습니다.

고객 맞춤형 ASIC과 범용 GPU(Merchant GPU) 간의 균형에 대해 말씀해 주실 수 있을까요?

또한, GPU와 ASIC을 함께 사용하는 **이기종 슈퍼클러스터(Heterogeneous Superclusters)**에 대한 논의도 들려오는데,

고객들이 이러한 인프라를 실제로 구축할 계획이 있는 건가요? 아니면 기존의 인프라가 여전히 별개로 운영될 것으로 보시나요?

감사합니다.

 

Jensen Huang — President and Chief Executive Officer

Well, we built very different things than ASICs, in some ways, completely different in some areas we intercept. We're different in several ways. One, NVIDIA'S architecture is general whether you're — you've optimized for unaggressive models or diffusion-based models or vision-based models or multimodal models, or text models. We're great in all of it.

We're great on all of it because our software stack is so — our architecture is sensible. Our software stack ecosystem is so rich that we're the initial target of most exciting innovations and algorithms. And so, by definition, we're much, much more general than narrow. We're also really good from the end-to-end from data processing, the curation of the training data, to the training of the data, of course, to reinforcement learning used in post-training, all the way to inference with tough time scaling.

 

젠슨 황 – 사장 겸 최고경영자(CEO)

우리는 ASIC과는 매우 다른 것들을 개발하고 있습니다. 어떤 면에서는 완전히 다르고, 일부 영역에서는 교차(intercept)하는 부분도 있습니다.

우리는 여러 가지 측면에서 ASIC과 차별화됩니다.

첫째, NVIDIA의 아키텍처는 범용적입니다.

  • 경량 모델(unalgressive models)
  • 확산 모델(diffusion-based models)
  • 비전 모델(vision-based models)
  • 멀티모달 모델(multimodal models)
  • 텍스트 모델(text models)

어떤 모델이든 최적화할 수 있으며, 모든 분야에서 뛰어난 성능을 발휘합니다.

이러한 강점을 갖춘 이유는

  1. 우리의 아키텍처가 합리적으로 설계되었고,
  2. 소프트웨어 스택 및 생태계가 매우 풍부하기 때문입니다.

그 결과, NVIDIA는 가장 혁신적인 알고리즘과 기술이 처음으로 적용되는 플랫폼이 되었습니다.
즉, 우리는 특정 용도로만 한정된 것이 아니라 훨씬 더 범용적인 시스템을 제공합니다.

또한, 우리는 데이터 처리의 전 과정에서 강력한 성능을 발휘합니다.

  • 훈련 데이터 준비 및 정제(Data curation)
  • 데이터 학습(Training)
  • 강화 학습(포스트 트레이닝, Reinforcement Learning in post-training)
  • 추론(Inference) 및 대규모 확장(Scaling at inference time)

이처럼 단순한 가속 칩을 넘어, AI의 모든 과정에서 엔드투엔드(End-to-End) 솔루션을 제공합니다.

 

So, we're general, we're end-to-end, and we're everywhere. And because we're not in just one cloud, we're in every cloud, we could be on-prem. We could be in a robot. Our architecture is much more accessible and a great target initial target for anybody who's starting up a new company. And so, we're everywhere.

 

그래서 우리는 범용적(general)이고, 엔드투엔드(end-to-end) 솔루션을 제공하며, 모든 곳에서 활용될 수 있습니다.

또한, 우리는 단 하나의 클라우드가 아니라 모든 클라우드에서 운영될 수 있습니다.

온프레미스(on-prem, 기업 내부 서버)에서 사용할 수도 있고, 로봇에 내장될 수도 있습니다.

즉, 우리의 아키텍처는 접근성이 뛰어나며, 새로운 회사를 창업하는 누구에게나 이상적인 출발점(target)이 됩니다.

 

 And the third thing I would say is that our performance in our rhythm is so incredibly fast. Remember that these data centers are always fixed in size. They're fixed in size or they're fixing power.

그리고 세 번째로, 우리의 성능 향상 속도(performance rhythm)는 믿을 수 없을 정도로 빠릅니다.

데이터 센터는 일반적으로 크기와 전력 소비가 고정되어 있습니다.

 

And if our performance per watt is anywhere from 2x to 4x to 8x, which is not unusual, it translates directly to revenues.

 

그러나 우리의 성능 대비 전력 효율(performance per watt)은 2배, 4배, 8배까지 향상될 수 있으며, 이는 결코 드문 일이 아닙니다.이는 직접적인 매출 증가로 이어집니다.

 

And so, if you have a 100-megawatt data center, if the performance or the throughput in that 100-megawatt or the gigawatt data center is four times or eight times higher, your revenues for that gigawatt data center is eight times higher.

 

예를 들어 100MW(메가와트) 규모의 데이터 센터가 있다고 가정할 때, 동일한 전력에서 처리 성능이 4배, 8배 증가하면,

그 데이터 센터의 매출도 4배, 8배 증가하게 됩니다.

이는 과거의 데이터 센터와 근본적으로 다른 점입니다.

 

And the reason that is so different than data centers of the past is because AI factories are directly monetizable through its tokens generated. And so, the token throughput of our architecture being so incredibly fast is just incredibly valuable to all of the companies that are building these things for revenue generation reasons and capturing the fast ROI.


과거에는 데이터 센터가 단순히 IT 인프라 역할을 했다면,

AI 팩토리(AI factories)는 생성된 토큰(tokens)을 통해 직접 수익을 창출할 수 있습니다.

즉, 우리의 아키텍처는 초고속 토큰 처리(token throughput)가 가능하기 때문에,AI를 활용해 매출을 창출하려는 모든 기업에게 엄청난 가치를 제공합니다.빠른 투자 회수(ROI, Return on Investment)를 원하는 기업들에게 필수적인 솔루션이 됩니다.

 

And so, I think the third reason is performance. And then the last thing that I would say is the software stack is incredibly hard. Building an ASIC is no different than what we do. We build a new architecture.

 

그래서 세 번째 이유는 성능(performance)입니다.

그리고 마지막으로 말씀드릴 부분은 소프트웨어 스택(software stack)이 매우 복잡하다는 점입니다.

ASIC을 설계하는 것은 우리가 하는 일과 크게 다르지 않습니다.
우리는 새로운 아키텍처를 구축하고 발전시키고 있습니다.

 

And the ecosystem that sits on top of our architecture is 10 times more complex today than it was two years ago. And that's fairly obvious because the amount of software that the world is building on top of architecture is growing exponentially and AI is advancing very quickly. So, bringing that whole ecosystem on top of multiple chips is hard. And so, I would say that — those four reasons.

 

우리 아키텍처 위에 구축된 생태계는 2년 전보다 지금이 10배는 더 복잡합니다.
그 이유는 명확합니다. 전 세계적으로 아키텍처 위에서 개발되는 소프트웨어의 양이 기하급수적으로 증가하고 있고, AI 기술도 빠르게 발전하고 있기 때문입니다.

그래서 이런 거대한 생태계를 여러 개의 칩 위에서 원활하게 운영하는 것은 쉽지 않은 일입니다.
이런 점들을 종합하면, 앞서 말씀드린 네 가지 이유가 우리의 강점이라고 할 수 있습니다.

 

( -범용성(Generality) – 모든 유형의 AI 모델을 지원

-엔드투엔드 솔루션(End-to-End) – 데이터 처리부터 추론까지 완벽한 지원

-고성능(Performance) – 전력 대비 성능 극대

-강력한 소프트웨어 생태계(Software Ecosystem) – 빠르게 성장하는 AI 환경을 지원

이 네 가지 이유가 우리의 차별화된 경쟁력입니다.)

 

And then finally, I will say this, just because the chip is designed doesn't mean it gets deployed. And you've seen this over and over again. There are a lot of chips that get built, but when the time comes, a business decision has to be made, and that business decision is about deploying a new engine, a new processor into a limited AI factory in size, in power, and in fine. And our technology is not only more advanced, more performance, it has much, much better software capability and very importantly, our ability to deploy is lightning fast.

 

그리고 마지막으로, 칩이 설계되었다고 해서 반드시 배포되는 것은 아닙니다.

이런 사례를 여러 번 보셨을 겁니다. 수많은 칩들이 개발되지만, 실제로 배포할 때가 되면 비즈니스적인 결정이 필요하죠.

새로운 엔진이나 프로세서를 도입할지 여부는 단순한 기술 문제가 아니라, AI 팩토리가 가진 공간, 전력, 예산 등의 제한 속에서 결정해야 하는 문제입니다.

그리고 우리의 기술은 단순히 더 발전되고 성능이 뛰어난 것뿐만 아니라, 소프트웨어 지원도 훨씬 강력하고, 무엇보다도 배포 속도가 엄청나게 빠릅니다.

 

And so, these things are enough for the faint of heart, as everybody knows now. And so, there's a lot of different reasons why we do well, why we win.

 

이런 일들은 결코 마음이 약한 사람들을 위한 것이 아닙니다. 이제는 모두가 그 사실을 잘 알고 있죠.

그래서 우리가 잘해낼 수밖에 없는 이유, 그리고 우리가 승리하는 이유는 정말 많습니다.

 

"우리의 와트당 성능이 2배, 4배, 심지어 8배까지 향상되는 것은 흔한 일이며, 이는 곧바로 매출로 이어집니다. 예를 들어, 100메가와트 규모의 데이터센터가 있다고 할 때, 그 성능이나 처리량이 4배 또는 8배로 높아진다면, 해당 데이터센터에서 창출되는 매출도 8배로 증가하게 됩니다.

 

이러한 점이 기존의 데이터센터와 AI 팩토리(AI 공장)가 결정적으로 다른 이유입니다. AI 팩토리는 생성되는 토큰을 통해 직접적으로 수익을 창출할 수 있기 때문입니다. 즉, 우리의 아키텍처는 토큰 생성 처리량이 매우 빠르기 때문에, 이 기술을 활용해 수익을 창출하려는 기업들에게는 ROI(투자 대비 수익률)를 빠르게 회수할 수 있는, 매우 큰 가치를 제공하는 셈입니다.

 

세 번째 이유는 성능이라고 생각합니다. 그리고 마지막으로 덧붙이고 싶은 것은, 소프트웨어 스택이 정말로 어렵다는 점입니다. ASIC(특수 목적용 반도체)를 만든다는 것은 우리가 하는 일과 다르지 않습니다. 우리도 새로운 아키텍처를 설계하니까요.

 

하지만 지금 우리의 아키텍처 위에 쌓여 있는 생태계는 2년 전보다 10배는 더 복잡해졌습니다. 이는 명확합니다. 전 세계가 이 아키텍처 위에서 개발하는 소프트웨어의 양은 기하급수적으로 증가하고 있고, AI 기술의 발전 속도도 매우 빠르기 때문입니다.

 

이처럼 다양한 칩 위에 전체 생태계를 구성하는 일은 매우 어렵습니다. 그래서 제가 말하고 싶은 네 가지 이유는 바로 이것입니다.

 

마지막으로 한 가지 더 말씀드리자면, 칩을 설계했다고 해서 반드시 실제로 배치되는 것은 아닙니다. 여러분도 이미 여러 차례 이런 사례를 보셨을 겁니다. 많은 칩들이 만들어지지만, 실제로 그것을 쓸지 말지는 결국 비즈니스적인 결정이 필요합니다.

 

이 결정은 곧 제한된 규모, 전력, 비용을 가진 AI 팩토리에 새로운 엔진이나 프로세서를 투입할 것인가에 대한 판단입니다. 그리고 저희 기술은 단지 더 진보되었고 성능이 뛰어날 뿐 아니라, 소프트웨어 역량이 훨씬 더 우수합니다. 무엇보다 중요한 점은, 저희는 실제 배치 속도도 매우 빠르다는 것입니다.

 

"그래서 이제 많은 사람들이 알고 있듯이, 이 모든 것들은 쉽게 도전할 수 있는 일이 아닙니다. 우리가 잘하는 이유, 우리가 시장에서 이기는 이유는 여러 가지가 있습니다."

 

오퍼레이터
다음 질문은 멜리어스 리서치(Melius Research)의 벤 라이트지스(Ben Reitzes) 애널리스트께서 주셨습니다. 질문해 주세요.

 

Ben Reitzes — 애널리스트
네, 안녕하세요. 벤 라이트지스입니다. 질문 기회 주셔서 감사합니다.

젠슨, 이번 질문은 지리적 수요와 관련된 것입니다. 아까 수요의 강세 요인을 잘 설명해주셨는데요,

미국 시장에서 분기 대비 약 50억 달러가 증가한 것으로 보입니다.

 

그리고 현재 시장에서는 다른 지역에 대한 규제가 강화될 경우, 미국이 그 수요 공백을 메울 수 있을지에 대한 우려가 있습니다. 그래서 궁금한 점은, 올해 남은 기간 동안 이런 미국 내 수요 급증이 계속된다면 괜찮은 것인지, 그리고 이런 변화가 전체 성장률에 어떤 영향을 미치는지에 대한 부분입니다.

 

특히 수요 비중이 미국 쪽으로 이동하고 있는 상황에서, 어떻게 그렇게 빠른 성장세를 유지할 수 있는지 궁금합니다. 가이던스를 보면 중국 매출도 분기 대비 증가할 것으로 보이는데, 이런 지역별 수요의 흐름에 대해 좀 더 설명해 주실 수 있을까요? 가능하다면 Collect도 이 주제에 대해 의견을 더해주시면 감사하겠습니다.

 

젠슨 황 – 사장 겸 최고경영자(CEO)

 

"중국 시장의 비중은 4분기와 이전 분기들과 대체로 비슷한 수준입니다. 수출 통제 이전에 비하면 절반 정도로 줄었지만, 여전히 전체 매출에서 차지하는 비율은 거의 변하지 않았습니다.

 

지역별로 봤을 때, 우리가 주목해야 할 핵심은 AI는 곧 소프트웨어라는 점입니다.

물론 AI는 매우 현대적이고 정교한 소프트웨어이지만, 이제는 완전히 대중화된 기술입니다.

 

지금은 AI가 배달 서비스나 쇼핑 서비스 등 거의 모든 일상 영역에 사용되고 있습니다.
예를 들어 우유 한 통을 주문하더라도, 그 배송 과정에는 AI가 활용되고 있죠.

 

AI가 그 과정에 관여하고 있습니다. 소비자 서비스가 제공하는 거의 모든 것에는 AI가 핵심적으로 작동하고 있습니다. 모든 학생은 AI를 개인 튜터처럼 활용하게 될 것이고, 의료 서비스도 AI를 사용하며, 금융 서비스 역시 마찬가지입니다.

 

AI를 사용하지 않는 핀테크 기업은 존재하지 않을 것입니다. 모든 핀테크 기업이 AI를 도입하게 될 것입니다. 기후 기술(Climate Tech) 기업들도 AI를 사용하고 있고, 광물 탐사 역시 이제 AI의 도움을 받고 있습니다.

 

그리고 전 세계의 고등교육기관, 모든 대학이 AI를 활용하고 있습니다. 따라서 저는 이제 AI는 완전히 주류 기술이 되었으며, 모든 애플리케이션에 통합되고 있다고 말해도 무리가 없다고 생각합니다.

 

우리는 물론 이 기술이 안전하게 발전하고, 사회에 도움이 되는 방향으로 진화하길 바라고 있습니다. 그리고 저는 지금 우리가 완전히 새로운 전환의 시작점에 있다고 믿습니다.

 

그 ‘시작점’이라는 말의 의미는, 우리가 지금까지 지나온 길을 돌아보면 수십 년 동안 데이터센터와 컴퓨터 인프라가 구축되어 왔다는 점을 떠올려야 합니다. 그동안의 컴퓨팅 환경은 손으로 코딩하고, 범용 CPU를 기반으로 동작하는 전통적인 방식에 맞춰 만들어졌습니다.

 

하지만 앞으로는, 이제 모든 소프트웨어가 AI를 중심으로 재편될 것이라는 점이 거의 분명합니다. 모든 소프트웨어, 모든 서비스는 기계학습(machine learning)을 기반으로 하게 될 것이며, 데이터 플라이휠(data flywheel) — 즉 데이터를 활용한 지속적인 개선 구조 — 이 소프트웨어와 서비스 품질 향상의 핵심이 될 것입니다.

 

미래의 컴퓨터는 가속화된 구조로 작동할 것이며, AI 중심으로 설계될 것입니다. 우리는 이제 그 여정에 들어선 지 불과 2년 정도밖에 되지 않았고, 이는 수십 년에 걸쳐 구축된 기존 컴퓨팅 시스템을 현대화하는 시작 단계에 불과합니다.

 

그래서 저는 지금 우리가 완전히 새로운 시대의 시작점에 있다고 확신합니다.

 

그리고 마지막으로, 그 어떤 기술도 인공지능(AI)만큼 전 세계 GDP의 더 넓은 영역을 직접적으로 다룰 수 있었던 적은 없었습니다. 지금까지 어떤 소프트웨어 도구도 그런 기회를 갖지 못했습니다. 그런데 이제 AI는 역사상 가장 넓은 경제 영역을 포괄할 수 있는 소프트웨어 도구가 된 것입니다.

 

따라서 우리가 성장을 바라보는 방식, 그리고 어떤 것이 크고 작은지를 판단하는 기준도 이제 이 새로운 맥락 속에서 다시 생각해야 합니다. 이처럼 큰 흐름의 관점에서 한 발 물러나 바라본다면, 우리는 정말 이제 겨우 시작점에 서 있는 것입니다.

 

오퍼레이터
다음 질문은 웰스파고(Wells Fargo)의 애런 레이커스(Aaron Rakers) 애널리스트입니다. 애런, 질문해 주세요.
(잠시 후) 다음 질문은 에버코어 ISI(Evercore ISI)의 마크 리파시스(Mark Lipacis) 애널리스트입니다. 질문해 주세요.

 

Mark Lipacis — 애널리스트
안녕하세요, 마크입니다. 질문 받아주셔서 감사합니다. 정정 질문 하나와 본 질문 하나가 있습니다.

 

먼저 Colette에게 드리는 정정 질문인데요. 데이터 센터 부문 중 엔터프라이즈(기업) 고객 매출이 1월 분기 기준으로 전년 대비 2배 성장했다고 말씀하신 게 맞나요? 그렇다면, 이는 하이퍼스케일러(초대형 클라우드 사업자)보다 더 빠른 성장세라는 의미인가요?

 

그리고 젠슨에게 드리는 질문입니다. 하이퍼스케일러는 귀사의 솔루션을 가장 많이 구매하는 고객이지만, 이들이 구매한 장비는 **내부용 워크로드(자체 서비스용)**과 외부용 워크로드(기업 고객이 사용하는 클라우드 서비스) 모두에 사용됩니다.


그래서 질문은, 현재 하이퍼스케일러들의 지출이 내부용과 외부용 사이에서 어떻게 나뉘는지 대략적인 비중을 알려주실 수 있는지, 그리고 앞으로 새로운 AI 워크플로우와 애플리케이션들이 등장하게 되면, 엔터프라이즈(기업) 고객이 전체 수요에서 더 큰 비중을 차지하게 될 것으로 예상하시는지입니다.

 

그리고 만약 그렇다면, 귀사의 서비스 개발 방향이나 생태계 전략에 어떤 영향을 줄 것으로 보시는지도 함께 말씀 부탁드립니다. 감사합니다.

 

코렛 크레스 – 최고재무책임자(CFO), 부사장

좋은 질문 감사합니다. 엔터프라이즈(기업) 비즈니스에 대한 질문인데요, 네 맞습니다. 해당 부문은 전년 대비 2배 성장했으며, 이는 주요 클라우드 서비스 제공업체(CSP)들과 유사한 수준의 성장세입니다.

 

여기서 중요한 점은, 이 두 부문(CSP와 엔터프라이즈)이 모두 이해해야 할 핵심 영역이라는 것입니다.
CSP와의 협업은 대형 언어모델(LLM) 학습 작업일 수도 있고, 자체적인 인퍼런스(추론) 작업일 수도 있습니다.

그런데 동시에, 이들 CSP는 또 다른 고객인 엔터프라이즈 기업들을 위한 서비스를 제공하는 주체이기도 합니다.

 

즉, 기업 고객은 CSP를 통해 서비스를 이용하기도 하고, 자체적으로도 AI 인프라를 구축하기도 하며, 양쪽 모두에서 견조한 성장세를 보이고 있습니다.

 

젠슨 황 – 사장 겸 최고경영자(CEO)

클라우드 서비스 제공업체(CSP)는 전체 비즈니스의 약 절반을 차지합니다. 말씀하신 것처럼, 이들 CSP는 **내부 소비(자체 사용)**와 외부 소비(클라우드 서비스 제공) 양쪽 모두에 장비를 사용합니다.

 

저희는 물론 내부 소비용으로도 활용되고 있으며, 이들 업체들과 매우 긴밀하게 협력하면서 그들의 내부 워크로드를 최적화하는 작업을 함께 하고 있습니다. 이들은 이미 NVIDIA 장비로 구성된 대규모 인프라를 갖추고 있고, 이를 최대한 활용하려는 거죠.

 

또한, 저희 제품은 AI뿐만 아니라 영상 처리, Spark 같은 데이터 처리 등 다양한 용도에 활용될 수 있기 때문에 매우 유연성(fungibility)이 높습니다. 이런 특성 덕분에 인프라의 유효 수명이 더 길고, 총소유비용(TCO)도 더 낮습니다.

 

그리고 두 번째 질문인, CSP가 아닌 엔터프라이즈(기업) 고객의 향후 성장 가능성에 대해서는, 저는 장기적으로 기업 고객 부문이 훨씬 더 큰 시장이 될 것이라고 생각합니다. 그 이유는 현재 컴퓨터 산업이 아직 충분히 서비스를 제공하지 못하고 있는 영역을 살펴보면, **대부분이 산업 부문(industrial)**이기 때문입니다.

 

그럼 예시를 하나 들어보겠습니다. 우리가 ‘엔터프라이즈(기업)’라고 말할 때, 자동차 회사를 예로 들어보겠습니다.

이들은 소프트웨어와 하드웨어를 모두 만드는 기업이기 때문입니다.

 

자동차 회사의 경우, 그 직원들은 ‘엔터프라이즈’ 사용자이자, 에이전틱 AI(agentic AI)와 소프트웨어 기반의 기획 도구들을 사용하는 사람들입니다. GTC에서 여러분께 소개할 정말 흥미로운 기술들이 있는데요, 바로 **직원들의 생산성을 높이고, 디자인·마케팅·기획·운영 등의 업무를 돕기 위한 에이전틱 시스템(agentic systems)**입니다.

 

이런 시스템들이 바로 에이전틱 AI입니다 — 즉, 직원 개개인을 더 유능하게 만들어주는 AI인 셈이죠.

 

한편으로, 자동차 회사가 생산하는 자동차 자체도 AI가 필요합니다. 이 차량들을 학습시키는 AI 시스템이 필요하고, 수많은 차량으로 구성된 방대한 차량 플릿(fleet) 전체를 AI가 다뤄야 합니다.

 

오늘날 도로 위에는 약 10억 대의 자동차가 달리고 있는데, 언젠가 그 10억 대의 자동차가 모두 로봇 차량이 될 것이며,

이 차량들은 끊임없이 데이터를 수집하고, 우리는 이를 AI 팩토리(AI 공장)를 통해 지속적으로 개선하게 될 것입니다.

 

오늘날에는 자동차 공장만 존재하지만, 미래에는 자동차 공장과 AI 공장을 함께 갖추게 될 것입니다.

그리고 자동차 내부에는 로보틱 시스템, 즉 지능형 컴퓨터가 탑재되어 있을 것입니다.

결국 이 산업에는 세 가지 컴퓨터가 관여하게 됩니다:

  1. 사람을 돕는 컴퓨터
  2. 기계(예: 자동차, 트랙터, 잔디깎이 등)에 들어가는 AI를 만드는 컴퓨터
  3. 기계 자체에 내장된 로보틱 컴퓨터

이렇게 보면, AI는 단지 소프트웨어를 위한 것이 아니라, 산업 전반의 모든 층위에 통합되고 있는 핵심 기술이라는 것을 알 수 있습니다.

 

It could be a human or robot that's being developed today. It could be a building. It could be a warehouse.

These physical systems require new type of AI we call physical AI.

 

They can't just understand the meaning of words and languages, but they have to understand the meaning of the world, friction and inertia, object permanence, and cause and effect.

 

And all of those type of things that are common sense to you and I, but AIs have to go learn those physical effects. So, we call that physical AI.

 

That whole part of using agentic AI to revolutionize the way we work inside companies, that's just starting.

 

지금 개발되고 있는 것은 사람일 수도 있고, 로봇일 수도 있습니다. 또는 건물이나 물류창고일 수도 있습니다. 이러한 물리적 시스템은 기존과는 다른 새로운 유형의 AI, 즉 '피지컬 AI(Physical AI)'를 필요로 합니다.

 

이 AI들은 단순히 언어나 단어의 의미를 이해하는 것만으로는 부족합니다. 세상 자체의 의미, 즉 마찰, 관성, 물체의 지속성(object permanence), 인과관계 같은 개념들을 이해해야 합니다.

 

이러한 요소들은 우리 인간에게는 상식처럼 자연스러운 개념이지만, AI에게는 하나하나 학습해야 할 물리적 원리들입니다. 그래서 우리는 이 새로운 AI 유형을 **‘피지컬 AI’**라고 부릅니다.

 

그리고 회사 내부에서 우리가 일하는 방식을 혁신하기 위한 '에이전틱 AI(agentic AI)'의 활용도 이제 막 시작된 단계입니다.

 

젠슨 황 – 사장 겸 최고경영자(CEO)

지금 우리는 에이전틱 AI(agentic AI) 시대의 시작점에 있습니다. 요즘 많은 사람들이 이 주제에 대해 이야기하고 있고, 저희도 이 분야에서 정말 흥미로운 일들을 많이 진행하고 있습니다. 그리고 그 다음에는 **피지컬 AI(physical AI)**가 있고, 그 다음에는 **로보틱 시스템(robotic systems)**이 기다리고 있습니다.

 

이렇게 세 가지 유형의 컴퓨터는 모두 완전히 새로운 세대의 컴퓨팅입니다. 제 생각에, 장기적으로 보면 이 영역들이 가장 큰 규모의 시장이 될 것이라고 봅니다. 사실 이는 매우 자연스러운 흐름입니다.

 

왜냐하면 세계 GDP의 대부분은 중공업(heavy industries), 제조업, 그리고 그런 산업을 지원하는 기업들로 구성되어 있기 때문입니다.

 

젠슨 황 – 사장 겸 최고경영자(CEO)

네, 좋은 질문 감사합니다. 우선 말씀드리자면, 여전히 많은 사람들이 Volta, Pascal, Ampere 아키텍처를 사용하고 있습니다. 그 이유는 간단합니다. CUDA는 매우 높은 수준의 프로그래머블 플랫폼이기 때문에, 어떤 아키텍처에서든 다양한 용도로 활용할 수 있기 때문입니다.

 

예를 들어 현재 **Blackwell 아키텍처의 주요 활용 사례 중 하나는 데이터 처리(data processing)와 데이터 큐레이션(data curation)**입니다.

 

어떤 상황에서 AI 모델이 잘 작동하지 않는 경우, 예를 들어 **자동차에 관한 비전-언어 모델(vision-language model)**에 그 상황을 제시합니다. 이 모델은 해당 상황을 분석하고 “이런 일이 일어났고, 나는 이 상황을 잘 처리하지 못했다”고 판단합니다.

 

그 다음에는 이 프롬프트에 대한 응답을 바탕으로, 기존에 보유한 데이터 레이크(data lake) 내에서 유사한 사례를 찾도록 또 다른 AI 모델을 활용합니다. 그리고 나서 **도메인 랜덤화(domain randomization)**를 통해 비슷한 상황을 다양하게 생성한 후, 이 데이터들을 이용해 AI 모델을 재학습시키는 것입니다.

 

이러한 일련의 과정에서, 과거 세대의 GPU들—예를 들어 Ampere—는 데이터 처리 및 큐레이션, 머신러닝 기반 검색 작업에 여전히 유용하게 사용될 수 있습니다.
그 후에 생성된 학습용 데이터셋은 Hopper 시스템에 전달되어 본격적인 학습이 진행됩니다.

즉, 각 아키텍처는 CUDA와 완벽히 호환되며, 어떤 작업이든 어떤 세대의 칩에서도 돌아갑니다.


이미 구축된 인프라가 있다면, 처리 강도가 낮은 작업은 과거 세대 시스템에 배분하여 효율적으로 활용할 수 있습니다. 그래서 우리는 모든 세대의 시스템을 효과적으로 활용하고 있으며, 전 세대 아키텍처들도 여전히 매우 잘 쓰이고 있습니다.

 

Operator

We have time for one more question, and that question comes from Atif Malik with Citi. Please go ahead.

Atif Malik — Analyst

Hi. Thank you for taking my question. I have a follow-up question on gross margins for Colette. So, I understand there are many moving parts the Blackwell yields, NVLink 72, and Ethernet mix.

And you kind of tipped to the earlier question the April quarter is the bottom, but second half would have to ramp like 200 basis points per quarter to get to the mid-70s range that you're giving for the end of the fiscal year. And we still don't know much about tariff impact to broader semiconductor, so what kind of gives you the confidence in that trajectory in the back half of this year?

 

오퍼레이터
마지막 질문을 받을 시간이 있습니다. 이번 질문은 씨티(Citi)의 아티프 말릭 애널리스트께서 주셨습니다. 질문해 주세요.

 

Atif Malik — 애널리스트
안녕하세요. 질문 받아주셔서 감사합니다. Colette에게 매출총이익률(gross margin)에 대한 후속 질문을 드리고 싶습니다.

 

제가 이해하기로는, 현재 Blackwell 수율(yield), NVLink 72, 이더넷(Ethernet) 제품 믹스 등 다양한 변동 요인들이 작용하고 있는 상황입니다.

 

이전에 하신 말씀을 보면, 4월 분기가 마진 측면에서 바닥이었고, 하반기에는 분기당 약 200bp(2.0%포인트)씩 마진이 개선되어야 회계연도 말에 제시한 70% 중반대 수준에 도달할 수 있을 것이라는 가이던스를 암시하신 것으로 보입니다.

 

그런데 반도체 산업 전반에 미칠 관세(tariff)의 영향도 아직 명확히 드러나지 않은 상황에서, 어떻게 하반기 마진 개선 흐름에 대한 확신을 가지게 되셨는지 궁금합니다.

 

Colette M. Kress — Chief Financial Officer, Executive Vice President

 

Yeah. Thanks for the question. Our gross margins, they're quite complex in terms of the material and everything that we put together in a Blackwell system, a tremendous amount of opportunity to look at a lot of different pieces of that on how we can better improve our gross margins over time. Remember, we have many different configurations as well on Blackwell that will be able to help us do that.

 

So, together, working after we get some of these really strong ramping completed for our customers, we can begin a lot of that work. If not, we're going to probably start as soon as possible if we can. If we can improve it in the short term, we will also do that. Tariff at this point, it's a little bit of an unknown it's an unknown until we understand further what the U.S.

Colette Kress – 최고재무책임자(CFO), 부사장

네, 질문 감사합니다. 매출총이익률(gross margin)은 매우 복잡한 요소들이 얽혀 있습니다. 특히 **Blackwell 시스템의 구성 요소와 소재(Materials)**는 다양한 변수들이 존재하며, 이러한 각 요소들을 분석하고 최적화함으로써 장기적으로 마진을 개선할 수 있는 기회가 많습니다.

 

또한 Blackwell은 **다양한 구성 옵션(configuration)**이 있기 때문에, 이런 점들도 마진 개선에 도움을 줄 수 있습니다.

지금은 고객사들을 위한 강력한 생산 확대(ramp-up)가 진행 중인데, 이 과정이 어느 정도 마무리되면 본격적인 마진 최적화 작업에 착수할 수 있을 것입니다.


물론 가능하다면 좀 더 앞당겨서 단기적으로도 개선할 수 있는 부분은 바로 시작할 준비가 되어 있습니다.

한편, 관세(tariff)에 대해서는 아직 명확한 정보가 부족하기 때문에, 미국 정부의 정책이 더 구체화될 때까지는 그 영향을 확정적으로 말하기 어렵습니다.
따라서 관세는 여전히 불확실한 요소로 남아 있습니다.

 

Colette Kress – 최고재무책임자(CFO), 부사장

정부의 관세 정책은 아직 시기, 대상, 그리고 세율 등이 모두 불확실합니다. 그래서 현재로서는 결과를 기다리는 중이며, 언제나 그렇듯 저희는 수출 규제나 관세에 대해서는 철저히 준수할 것입니다.

 

오퍼레이터

여러분, 이것으로 Q&A 세션을 모두 마치겠습니다. 감사합니다.

 

I just wanted to thank you. Thank you, Colette. The demand for Blackwell is extraordinary. AI is evolving beyond perception and generative AI into reasoning.

 

젠슨 황 – 사장 겸 최고경영자(CEO)
감사합니다. 고맙습니다, Colette.

 

Blackwell에 대한 수요는 정말로 엄청납니다. 그리고 AI는 이제 **단순한 인식(perception)**이나 **생성(Generative AI)**을 넘어서, **추론(reasoning)**이라는 새로운 단계로 진화하고 있습니다.

 

With resenting AI, we're observing another scaling law, inference time or test time scaling, more computation. The more the model thinks the smarter the answer. Models like OpenAI, Grok 3, DeepSeek-R1 are reasoning models that apply inference time scaling. Reasoning models can consume 100x more compute.

 

이와 함께, 우리는 **추론 시간(inference time) 또는 테스트 시간의 확장성(scaling law)**이라는 새로운 스케일링 법칙을 목격하고 있습니다. 즉, 모델이 더 많이 "생각"할수록 더 똑똑한 답을 내놓는다는 것입니다.

 

OpenAI, Grok 3, DeepSeek-R1 같은 모델들은 모두 **추론 중심 모델(reasoning models)**로, 이들은 기존보다 100배 이상 많은 컴퓨팅 자원을 소비할 수 있습니다.

 

Future reasoning models can consume much more compute. DeepSeek-R1 has ignited global enthusiasm. It's an excellent innovation. But even more importantly, it has open-sourced a world-class reasoning AI model.


앞으로의 추론형 AI 모델들은 훨씬 더 많은 연산력을 요구할 것입니다.

특히 DeepSeek-R1은 전 세계적으로 큰 관심을 불러일으킨 혁신적인 모델입니다. 그 자체로도 훌륭하지만, 세계적 수준의 추론형 AI 모델을 오픈소스로 공개했다는 점이 더 의미 깊습니다. 이는 AI 생태계에 엄청난 영향을 줄 것입니다.

 

----------------

 

Nearly every AI developer is applying R1 or chain of thought and reinforcement learning techniques like R1 to scale their model's performance. We now have three scaling laws, as I mentioned earlier, driving the demand for AI computing.

The traditional scaling loss of AI remains intact. Foundation models are being enhanced with multimodality,

and pretraining is still growing.

 

거의 모든 인공지능(AI) 개발자들이 R1이나 연쇄적 사고(chain of thought), 그리고 R1과 유사한 강화학습 기법을 활용해 모델 성능을 확장하고 있습니다. 앞서 언급했듯이, 현재 AI 컴퓨팅 수요를 이끄는 세 가지 스케일링 법칙이 존재합니다. 기존의 AI 스케일링 법칙은 여전히 유효하며, 파운데이션 모델은 멀티모달 기능으로 강화되고 있고, 프리트레이닝 규모도 계속해서 커지고 있습니다.

 

But it's no longer enough. We have two additional scaling dimensions: post-training scaling, where reinforcement learning, fine-tuning, model distillation require orders of magnitude more compute than pretraining alone; inference time scaling and reasoning where a single query and demand 100x more compute.

 

하지만 이제는 그것만으로는 부족합니다. 우리는 두 가지 추가적인 스케일링 차원을 맞이하게 되었습니다. 첫 번째는 프리트레이닝 이후(post-training)의 스케일링으로, 여기에는 강화학습, 파인튜닝, 모델 디스틸레이션이 포함되며, 이들은 프리트레이닝만 할 때보다 수십 배 더 많은 연산을 요구합니다. 두 번째는 추론 단계(inference time)에서의 스케일링, 즉 하나의 질의에 대해 최대 100배 이상의 연산을 요구하는 ‘추론과 사고(reasoning)’ 영역입니다.

 

We defined Blackwell for this moment, a single platform that can easily transition from pre-trading, post-training, and test time scaling. Blackwell's FP4 transformer engine and NVLink 72 scale-up fabric and new software technologies led Blackwell process reasoning AI models 25 times faster than Hopper.

 

우리는 이 순간을 위해 Blackwell을 설계했습니다. Blackwell은 프리트레이닝, 포스트트레이닝, 테스트(추론) 단계를 모두 원활하게 전환할 수 있는 단일 플랫폼입니다. Blackwell에 탑재된 FP4 트랜스포머 엔진, NVLink 72 스케일업 패브릭, 그리고 새로운 소프트웨어 기술들은 Blackwell이 reasoning AI 모델을 Hopper보다 최대 25배 빠르게 처리할 수 있도록 만들어줍니다.

 

Blackwell in all of this configuration is in full production. Each Grace Blackwell NVLink 72 rack is an engineering marvel. 1.5 million components produced across 350 manufacturing sites by nearly 100,000 factory operators. AI is advancing at light speed.

 

Blackwell은 이러한 모든 구성에서 이미 본격적인 생산 단계에 돌입했습니다. 각 Grace Blackwell NVLink 72 랙은 그 자체로 하나의 공학적 걸작입니다. 전 세계 350곳의 생산 거점에서 약 10만 명의 작업자들이 150만 개의 부품을 생산해내고 있습니다. AI는 말 그대로 빛의 속도로 진화하고 있습니다.

 

We're at the beginning of reasoning AI and inference time scaling. But we're just at the start of the age of AI, multimodal AIs, enterprise AI sovereign AI and physical AI are right around the corner. We will grow strongly in 2025. Going forward, data centers will dedicate most of capex to accelerated computing and AI.

 

우리는 지금 reasoning AI(추론형 인공지능)와 inference time scaling(추론 단계의 확장)의 시작점에 서 있습니다.

하지만 이는 AI 시대의 서막에 불과합니다. 멀티모달 AI, 엔터프라이즈 AI, 주권형 AI( sovereign AI),

그리고 물리적 AI(physical AI)들이 곧 등장할 것입니다. 2025년에는 강력한 성장을 기대하고 있습니다.

앞으로 데이터센터의 자본지출(Capex)은 대부분 가속 컴퓨팅과 AI에 집중될 것입니다.

 

Data centers will increasingly become AI factories, and every company will have either rented or self-operated. I want to thank all of you for joining us today. Come join us at GTC in a couple of weeks. We're going to be talking about Blackwell Ultra, Rubin, and other new computing, networking, reasoning AI, physical AI products, and a whole bunch more.

Thank you.

 

데이터센터는 점점 더 AI 공장(AI factories)으로 변화해갈 것이며, 모든 기업은 이를 임대하거나 자체적으로 운영하게 될 것입니다. 오늘 저희와 함께해 주신 모든 분들께 진심으로 감사드립니다. 몇 주 후 열릴 GTC 행사에도 꼭 참여해 주세요. 그곳에서 우리는 Blackwell Ultra, Rubin, 그리고 새로운 컴퓨팅, 네트워킹, 추론형 AI, 물리적 AI 제품 등 다양한 혁신에 대해 이야기할 예정입니다.

감사합니다.