2023.04.28
HBM Supply Leader SK Hynix’s Market Share to Exceed 50% in 2023 Due to Demand for AI Servers, Says TrendForce
트렌드포스에 따르면, AI 서버 수요 증가로 인해 고대역폭 메모리(HBM) 수요가 급증하면서
2023년 HBM 선두 주자인 SK하이닉스의 시장 점유율은 50% 이상을 차지할 것이라고 예상됩니다.
A strong growth in AI server shipments has driven demand for high bandwidth memory (HBM). TrendForce reports that the top three HBM suppliers in 2022 were SK hynix, Samsung, and Micron, with 50%, 40%, and 10% market share, respectively.
트렌드포스는 강력한 인공지능(AI) 서버 출하 증가가 고대역폭 메모리(HBM) 수요를 촉발시켰다고 보도했습니다.
2022년 상위 3개 HBM 공급업체는 SK하이닉스, 삼성전자, 마이크론으로, 각각 50%, 40%, 10%의 시장 점유율을
차지했습니다.
Furthermore, the specifications of high-end AI GPUs designed for deep learning have led to HBM product iteration.
To prepare for the launch of NVIDIA H100 and AMD MI300 in 2H23, all three major suppliers are planning for the mass production of HBM3 products.
또한, 딥러닝을 위해 설계된 고급 AI GPU의 사양은 HBM 제품 개선을 이끌었습니다. SK하이닉스, 삼성전자,
마이크론 세 공급업체는 NVIDIA H100과 AMD MI300의 출시에 대비해 HBM3 제품의 대량 생산을 준비하고 있습니다.
At present, SK hynix is the only supplier that mass produces HBM3 products, and as a result, is projected to increase its market share to 53% as more customers adopt HBM3. Samsung and Micron are expected to start mass production sometime towards the end of this year or early 2024, with HBM market shares of 38% and 9%, respectively.
현재 SK하이닉스는 HBM3 제품을 대량 생산하는 유일한 공급업체이며, 이로 인해 HBM3을 채택하는
고객이 더 많아지면 시장 점유율이 53%로 증가할 것으로 예상됩니다.
삼성전자와 마이크론은 올해 말이나 2024년 초에 대량 생산을 시작할 예정이며,
시장 점유율은 각각 38%와 9%로 예상됩니다.
AI server shipment volume expected to increase by 15.4% in 2023
2023년에는 AI 서버 출하량이 15.4% 증가할 것으로 예상됩니다.
NVIDIA’s DM/ML AI servers are equipped with an average of four or eight high-end graphics cards and two mainstream x86 server CPUs. These servers are primarily used by top US cloud services providers such as Google, AWS, Meta, and Microsoft.
NVIDIA의 DM/ML AI 서버는 평균 4개 또는 8개의 고급 그래픽 카드와 2개의 주류 x86 서버 CPU가 장착되어 있습니다.
이러한 서버는 Google, AWS, Meta, Microsoft 등 미국 최고의 클라우드 서비스 제공업체에서 사용됩니다.
TrendForce analysis indicates that the shipment volume of servers with high-end GPGPUs is expected to increase by around 9% in 2022, with approximately 80% of these shipments concentrated in eight major cloud service providers in China and the US.
Looking ahead to 2023, Microsoft, Meta, Baidu, and ByteDance will launch generative AI products and services, further boosting AI server shipments. It is estimated that the shipment volume of AI servers will increase by 15.4% this year, and a 12.2% CAGR for AI server shipments is projected from 2023 to 2027.
트렌드포스의 분석 결과, 고급 GPGPU가 장착된 서버 출하량은 2022년에 약 9% 증가할 것으로 예상되며,
이 중 대부분인 약 80%는 중국과 미국의 8대 클라우드 서비스 제공업체에서 집중될 것입니다.
2023년에는 Microsoft, Meta, Baidu, ByteDance 등이 창조적 AI 제품 및 서비스를 출시하여
AI 서버 출하량을 더욱 증가시킬 것으로 예상됩니다.
AI 서버 출하량은 올해 15.4% 증가할 것으로 추정되며, 2023년부터 2027년까지는 AI 서버 출하량이 12.2% CAGR로 증가할 것으로 예상됩니다.
AI servers stimulate a simultaneous increase in demand for server DRAM, SSD, and HBM
AI 서버는 서버용 DRAM, SSD와 HBM의 수요를 동시에 촉진시킨다.
TrendForce points out that the rise of AI servers is likely to increase demand for memory usage.
While general servers have 500–600 GB of server DRAM, AI servers require significantly more—averaging between 1.2–1.7 TB with 64–128 GB per module.
"TrendForce에 따르면 AI 서버의 대중화로 인해 메모리 사용량에 대한 수요가 증가할 것으로 예상되며,
일반 서버가 500-600GB의 서버 DRAM을 사용하는 반면, AI 서버는 64-128GB짜리 모듈 디램으로 구성된
평균 1.2-1.7TB 디램이 필요합니다.
For enterprise SSDs, priority is given to DRAM or HBM due to the high-speed requirements of AI servers,
but there has yet to be a noticeable push to expand SSD capacity.
However, in terms of interface, PCIe 5.0 is more favored when it comes to addressing high-speed computing needs.
Additionally, AI servers tend to use GPGPUs, and with NVIDIA A100 80 GB configurations of four or eight, HBM usage would be around 320–640 GB. As AI models grow increasingly complex, demand for server DRAM, SSDs, and HBM will grow simultaneously.
기업용 SSD의 경우, AI 서버의 고속 요구 사항 때문에 DRAM 또는 HBM에 우선순위가 부여되지만
SSD 용량을 확장하기 위한 뚜렷한 노력은 아직 보이지 않습니다.
그러나 고속 컴퓨팅 요구 사항을 해결하기 위해 PCIe 5.0이 인터페이스로 더 선호됩니다.
게다가 AI 서버는 일반적으로 GPGPU를 사용하며, NVIDIA A100 80GB 구성(4 또는 8개)의 경우
HBM 사용량은 약 320-640GB입니다.
AI 모델이 점점 복잡해지면서 서버 DRAM, SSD 및 HBM에 대한 수요가 동시에 증가할 것입니다."