2025.05.22
HBM4 Raises the Bar on Manufacturing Complexity, Premium Expected to Exceed 30%, Says TrendForce
HBM4, 제조 복잡도 대폭 상승… 가격 프리미엄은 30% 이상으로 확대 전망-트렌드포스
TrendForce's latest findings reveal that demand for AI servers continues to accelerate the development of HBM technologies, with the three major suppliers actively advancing their HBM4 product roadmaps.
TrendForce의 최신 보고서에 따르면, AI 서버에 대한 수요가 지속적으로 증가하면서 HBM(고대역폭 메모리) 기술 개발 속도가 더욱 가속화되고 있으며, 주요 3대 공급업체들은 HBM4 제품 로드맵을 빠르게 추진 중입니다.
HBM4 introduces a more complex chip design that expands die size due to a significant increase in I/O count. Additionally, some vendors are also transitioning to a logic-based base die architecture to enhance performance, with both factors contributing to higher production costs.
HBM4는 I/O(입출력) 수가 크게 증가함에 따라 칩 설계가 더욱 복잡해지고, 이로 인해 다이(die) 크기도 확대되었습니다. 여기에 일부 업체들은 성능 향상을 위해 로직 기반의 베이스 다이 아키텍처로 전환을 시도하고 있어, 전체적인 제조 비용이 상승하고 있습니다.
For reference, HBM3e debuted with an estimated 20% price premium;
HBM4’s elevated manufacturing difficulty is expected to drive premiums above 30%.
참고로, 이전 세대인 HBM3E는 약 20% 수준의 프리미엄이 붙었는데,
HBM4는 제조 난이도가 더욱 높아짐에 따라 프리미엄이 30% 이상으로 올라갈 것으로 예상됩니다.
Leading AI chipmaker NVIDIA unveiled its next-generation Rubin GPU at this year’s GTC,
while AMD is preparing its MI400 series as a direct competitor. Both are expected to feature HBM4.
AI 칩 분야의 선두주자인 엔비디아(NVIDIA)는 올해 GTC에서 차세대 GPU인 ‘루빈(Rubin)’을 공개했으며,
AMD 역시 이에 대응하기 위해 MI400 시리즈를 준비 중입니다. 두 제품 모두 HBM4를 탑재할 예정입니다.
TrendForce notes that HBM4 doubles the I/O count from 1,024 to 2,048 compared to previous generations,
while maintaining a data transfer rate above 8.0 Gbps—on par with HBM3e. This implies that HBM4 can deliver twice the data throughput at the same speed, thanks to its increased channel count.
TrendForce는 HBM4가 기존 세대(1024개)보다 두 배 많은 2048개의 I/O를 지원한다고 밝혔으며, 데이터 전송 속도는
HBM3E 수준인 8.0Gbps 이상을 유지합니다. 이는 같은 속도에서 HBM4가 채널 수 증가를 통해 실질적인
데이터 처리량을 두 배로 늘릴 수 있음을 의미합니다.
Moreover, current HBM3e base dies utilize a memory-only architecture that acts as simple signal pass-throughs. In contrast, SK hynix and Samsung are collaborating with foundries to adopt a logic-based base die design for HBM4.
또한, 현재의 HBM3E는 단순한 신호 패스스루 역할을 하는 메모리 전용 베이스 다이를 사용하고 있지만, SK하이닉스와 삼성전자는 HBM4에서는 파운드리와 협력하여 로직 기반의 베이스 다이 설계를 도입하고 있습니다.
This new approach enables closer integration between HBM and SoC, offering lower latency, improved data path efficiency, and greater stability in high-speed transmission environments.
이 새로운 설계는 HBM과 SoC 간의 통합을 더욱 밀접하게 만들어 지연시간을 줄이고, 데이터 경로 효율성과 고속 전송 안정성을 높이는 데 기여할 것으로 기대됩니다.
Amid robust demand, TrendForce forecasts total HBM shipments to surpass 30 billion gigabits in 2026.
HBM4’s market share is expected to grow steadily as suppliers ramp up production,
ultimately overtaking HBM3e as the mainstream solution by the second half of 2026.
견조한 수요 속에서 TrendForce는 2026년 HBM 전체 출하량이 300억 기가비트(37.5억GB)를 돌파할 것으로 전망하고 있으며,
HBM4의 시장 점유율은 공급업체들의 생산 확대와 함께 꾸준히 상승해 2026년 하반기에는 HBM3E를 대체하는
주력 솔루션으로 자리 잡을 것으로 예상됩니다.
(HBM 1GB당 15달러로 추정하면 2026년 HBM 매출은 562억달러(원화 78.68조원,1400원계산)로 추정)
SK hynix is projected to retain its leadership with over 50% market share, while Samsung and Micron will need to
further improve yields and capacity to narrow the gap in the HBM4 race.
이 과정에서 SK하이닉스는 50% 이상의 시장 점유율을 유지하며 선두를 유지할 것으로 보이며, 삼성전자와 마이크론은 수율과 생산능력 개선을 통해 격차를 좁혀야 할 것으로 분석됩니다.
--------------------------
2025.05.28
엔비디아와 ‘한 몸’인 SK하이닉스...HBM4 공급도, 주가도 ‘청신호’
엔비디아와 ‘한 몸’인 SK하이닉스...HBM4 공급도, 주가도 ‘청신호’
고대역폭메모리(HBM) 시장 주류 제품으로 떠오른 HBM4 시장에서도 SK하이닉스의 독주가 지속될 전망이다. 기술 선점은 물론 최대 고객사인 엔비디아에 공급 우선권 등을 확보하면서 시장 장악력을
v.daum.net
'반도체-삼성전자-하이닉스-마이크론' 카테고리의 다른 글
엔비디아, HBM3E 12단 가격 올렸다…위상 높아진 SK하이닉스(2025.05.14) (0) | 2025.05.23 |
---|---|
IonQ(IONQ), CEO의 "양자 컴퓨팅계의 Nvidia" 발언에 주가 36% 급등 (0) | 2025.05.23 |
Wells Fargo, 마이크론(MU)에 대한 '매수' 등급 유지, 목표 주가 130달러 유지(2025.05.22) (0) | 2025.05.22 |
SK하이닉스, 321단 낸드 기반 UFS 4.1 설루션 제품 개발(2025.05.22) (0) | 2025.05.22 |
뉴럴링크(Neuralink)는 일론 머스크(Elon Musk)가 설립한 신경기술 회사(2025.05.22) (0) | 2025.05.22 |