반도체-삼성전자-하이닉스-마이크론

클라우드 서비스 제공업체들의 2026년 설비투자는 5,200억 달러 돌파 전망(2025.10.14)

yjsunshine 2025. 10. 14. 19:36

2025.10.14

요약: 2026년에는 GB/VR 시스템과 같은 랙 단위 솔루션의 확산에 힘입어 8대 CSP의 총 설비투자액이

전년 대비 24% 증가한 5,200억 달러를 돌파하며 역대 최고치를 기록할 것으로 전망된다.

 

DRAMeXchange - 【Market View】CSP CapEx to Soar Past US$520 Billion in 2026, Driven by GPU Procurement and ASIC Development, Says TrendForce

 

트렌드포스(TrendForce): GPU 조달 및 ASIC 개발 확대에 힘입어 CSP(클라우드 서비스 제공업체)들의 2026년 설비투자(CapEx)는 5,200억 달러 돌파 전망

 

트렌드포스의 최신 조사에 따르면, AI 서버 수요의 급격한 확대가 전 세계 클라우드 서비스 제공업체(CSP) — 구글(Google), AWS, 메타(Meta), 마이크로소프트(Microsoft), 오라클(Oracle), 텐센트(Tencent), 알리바바(Alibaba),

바이두(Baidu) — 의 대규모 설비투자 확대를 견인하고 있다.

 

이들은 엔비디아(NVIDIA)의 랙 단위 GPU 솔루션, 데이터센터 확충, 그리고 자체 AI ASIC(맞춤형 AI 칩) 설계에

대규모 투자를 집중하고 있다.

 

트렌드포스는 2025년 8대 주요 CSP의 총 설비투자액이 4,200억 달러를 넘어설 것으로 예측했다.

이는 2023년과 2024년의 총합에 맞먹는 수준으로, 전년 대비 61% 증가한 규모다.

 

2026년에는 GB/VR 시스템과 같은 랙 단위 솔루션의 확산에 힘입어 8대 CSP의 총 설비투자액이

전년 대비 24% 증가한 5,200억 달러를 돌파하며 역대 최고치를 기록할 것으로 전망된다.

 

또한 투자 우선순위가 기존의 수익 창출 자산에서 서버·GPU와 같은 단기 수명 인프라로 이동하고 있어,

단기 이익보다는 장기 경쟁력 및 시장점유율 확대에 초점을 맞추는 전략적 변화가 나타나고 있다.

2025년: 엔비디아 GB200·GB300 랙 시스템, 주요 CSP의 핵심 배치 플랫폼으로 부상

트렌드포스는 예상보다 빠르게 증가하는 AI 수요에 따라 2025년 엔비디아의 GB200 및 GB300 랙 시스템이 주요 CSP들의 핵심 도입 대상으로 자리 잡을 것으로 내다봤다.

 

북미의 4대 주요 CSP 및 오라클(Oracle)에 더해, 테슬라/엑스AI(Tesla/xAI), 코어위브(CoreWeave), 네비우스(Nebius) 등 신규 고객들도 AI 클라우드 임대 및 생성형 AI 워크로드 확대를 위해 구매를 늘리고 있다.

 

2026년 하반기에는 CSP들이 GB300 랙에서 차세대 엔비디아 루빈(Rubin) VR200 랙 플랫폼으로 점차 전환할 것으로 예상된다.

맞춤형 AI 칩(ASIC) 생산의 지속적인 확장

북미 주요 4대 CSP들은 대규모 AI 및 LLM(대형 언어 모델) 작업에서 자율성을 높이고 비용을 관리하기 위해

AI ASIC 투자를 확대하고 있다.

  • 구글(Google) 은 브로드컴(Broadcom)과 협력해 TPU v7p(아이언우드·Ironwood)를 개발 중이다. 이는 학습용 최적화 플랫폼으로 2026년 본격 확장될 예정이며, 기존 TPU v6e(트릴리움·Trilium)의 후속 모델이다. 트렌드포스는 구글의 TPU 출하량이 2026년에 전년 대비 40% 이상 증가해 CSP 중 최대 규모를 유지할 것으로 예상했다.

  • AWS 는 트레이니움 v2(Trainium v2)를 우선 도입하며, 2025년 말에는 액침 냉각(liquid-cooled) 랙 버전이 추가될 예정이다.

    또한 알칩(Alchip)과 마벨(Marvell)과 공동 개발 중인 트레이니움 v3(Trainium v3)는 2026년 초 양산이 계획되어 있다.
    AWS의 ASIC 출하량은 2025년에 두 배 이상 증가하며 주요 CSP 중 가장 빠른 성장세를 보일 것으로 예상되며,
    2026년에도 약 20% 추가 성장할 것으로 전망된다.

  • 메타(Meta) 는 브로드컴과의 협력을 강화하며, 2025년 4분기에는 MTIA v2의 양산을 시작해 추론 효율을 높이고 지연 시간을 단축할 계획이다. 2025년에는 주로 자사 내부의 AI 플랫폼과 추천 시스템용으로 출하될 예정이며, HBM이 통합된 MTIA v3는 2026년에 출시되어 전체 출하량이 두 배로 늘어날 것으로 전망된다.

  • 마이크로소프트(Microsoft) 는 GUC와 협력해 2026년 상반기 마이아 v2(Maia v2)의 양산을 추진할 계획이다.
    다만, 마이아 v3(Maia v3)는 설계 변경으로 일정이 연기되면서 단기적으로는 ASIC 출하량이 제한되고,
    경쟁사 대비 다소 뒤처질 것으로 예상된다.