본문 바로가기

반도체-삼성전자-하이닉스-마이크론

엔비디아에 구글까지…SK하이닉스, HBM 고객 넘친다(2025.01.24)

2025.01.24

 

엔비디아에 구글까지…SK하이닉스, HBM 고객 넘친다

 

엔비디아에 구글까지…SK하이닉스, HBM 고객 넘친다

[서울=뉴시스]이인준 기자 = SK하이닉스가 미국 빅테크(기술 대기업)의 자체 인공지능(AI) 반도체에서도 HBM(고대역폭메모리) 고객 수요가 의미 있게 증가하고 있다고 밝혀 주목된다. SK하이닉스는

v.daum.net

 

 

------------------------------------

2025.01.24

엔비디아도, 反엔비디아도···SK에 줄 선 빅테크

 

엔비디아도, 反엔비디아도···SK에 줄 선 빅테크

[서울경제] 인공지능(AI) 메모리 시장에서 SK하이닉스의 질주가 이어지면서 첨단 메모리 제품을 확보하기 위한 빅테크들의 러브콜도 가열되고 있다. SK하이닉스의 AI 동맹군인 엔비디아는 물론이

v.daum.net

 

 

당초 HBM 수요처가 다른 빅테크로 넓어질 경우 삼성전자 등 후발 주자들에게 기회가 돌아갈 것이라는 전망도 있었지만 우선 빅테크들은 최선단 제품을 가장 먼저 상용화한 SK하이닉스에 신뢰를 보내고 있다.

 

--------------------------------

2025.01.29

xAI, GPU 10만장 투입한 슈퍼컴퓨터 내부 공개..."10만장 더 추가할 것" < 포토/영상 < 포커스 < 기사본문 - AI타임스

 

xAI, GPU 10만장 투입한 슈퍼컴퓨터 내부 공개..."10만장 더 추가할 것" - AI타임스

일론 머스크 CEO가 세계 최대의 인공지능(AI) 슈퍼컴퓨팅 클러스터라고 자랑한 xAI의 \'콜로서스\' 내부가 처음 공개됐다.유튜버인 서버더홈(ServeTheHome)은 28일(현지시간) xAI의 승인을 받아 미국 멤

www.aitimes.com

 

 

엔비디아의 H100H200의 주요 차이점은 메모리 용량과 대역폭입니다.

1. 메모리 용량 (HBM)

  • H100: 80GB HBM2e 메모리
  • H200: 141GB HBM3 메모리
    H200은 H100보다 약 76% 더 많은 메모리를 탑재하고 있음.

2. 메모리 대역폭

  • H100: 3.35TB/s (테라바이트/초)
  • H200: 4.8TB/s
    H200은 H100보다 약 43% 더 빠른 메모리 대역폭을 가짐.

3. 성능 향상

  • H200은 더 큰 메모리와 더 빠른 대역폭 덕분에 AI 모델 훈련 및 추론 속도가 향상됨.
  • 특히 LLM(대형 언어 모델)과 같은 초거대 AI 모델 실행에 적합.

4. 제조 공정

  • 두 GPU 모두 TSMC의 4N 공정을 기반으로 제조됨.

5. 사용 사례

  • H100: 기존 AI 훈련 및 추론, HPC(고성능 컴퓨팅) 애플리케이션에 사용.
  • H200: 더 큰 메모리 요구사항이 필요한 초거대 AI 모델, 데이터 분석, LLM 실행 등에 최적화됨.

결론

  • H200은 메모리 용량과 대역폭이 개선된 H100의 업그레이드 버전.
  • AI 모델을 학습하고 실행하는 데 있어 더 큰 데이터 세트를 처리하는 데 유리.
  • 전력 소비와 기본 아키텍처는 유사하므로 기존 H100 인프라에서 쉽게 교체 가능.

👉 요약:
H200 = H100 + 더 큰 메모리(141GB) + 더 빠른 메모리 대역폭(4.8TB/s)

--------------------------------

2025.01.24

 

[각도기의 전략노트] SK하이닉스는 머지않아 삼성전자 시가총액 잡는다 | 인포맥스라이브 250123