2025.01.24
엔비디아에 구글까지…SK하이닉스, HBM 고객 넘친다
[서울=뉴시스]이인준 기자 = SK하이닉스가 미국 빅테크(기술 대기업)의 자체 인공지능(AI) 반도체에서도 HBM(고대역폭메모리) 고객 수요가 의미 있게 증가하고 있다고 밝혀 주목된다. SK하이닉스는
v.daum.net
------------------------------------
2025.01.24
엔비디아도, 反엔비디아도···SK에 줄 선 빅테크
[서울경제] 인공지능(AI) 메모리 시장에서 SK하이닉스의 질주가 이어지면서 첨단 메모리 제품을 확보하기 위한 빅테크들의 러브콜도 가열되고 있다. SK하이닉스의 AI 동맹군인 엔비디아는 물론이
v.daum.net
당초 HBM 수요처가 다른 빅테크로 넓어질 경우 삼성전자 등 후발 주자들에게 기회가 돌아갈 것이라는 전망도 있었지만 우선 빅테크들은 최선단 제품을 가장 먼저 상용화한 SK하이닉스에 신뢰를 보내고 있다.
--------------------------------
2025.01.29
xAI, GPU 10만장 투입한 슈퍼컴퓨터 내부 공개..."10만장 더 추가할 것" < 포토/영상 < 포커스 < 기사본문 - AI타임스
xAI, GPU 10만장 투입한 슈퍼컴퓨터 내부 공개..."10만장 더 추가할 것" - AI타임스
일론 머스크 CEO가 세계 최대의 인공지능(AI) 슈퍼컴퓨팅 클러스터라고 자랑한 xAI의 \'콜로서스\' 내부가 처음 공개됐다.유튜버인 서버더홈(ServeTheHome)은 28일(현지시간) xAI의 승인을 받아 미국 멤
www.aitimes.com
엔비디아의 H100과 H200의 주요 차이점은 메모리 용량과 대역폭입니다.
1. 메모리 용량 (HBM)
- H100: 80GB HBM2e 메모리
- H200: 141GB HBM3 메모리
→ H200은 H100보다 약 76% 더 많은 메모리를 탑재하고 있음.
2. 메모리 대역폭
- H100: 3.35TB/s (테라바이트/초)
- H200: 4.8TB/s
→ H200은 H100보다 약 43% 더 빠른 메모리 대역폭을 가짐.
3. 성능 향상
- H200은 더 큰 메모리와 더 빠른 대역폭 덕분에 AI 모델 훈련 및 추론 속도가 향상됨.
- 특히 LLM(대형 언어 모델)과 같은 초거대 AI 모델 실행에 적합.
4. 제조 공정
- 두 GPU 모두 TSMC의 4N 공정을 기반으로 제조됨.
5. 사용 사례
- H100: 기존 AI 훈련 및 추론, HPC(고성능 컴퓨팅) 애플리케이션에 사용.
- H200: 더 큰 메모리 요구사항이 필요한 초거대 AI 모델, 데이터 분석, LLM 실행 등에 최적화됨.
결론
- H200은 메모리 용량과 대역폭이 개선된 H100의 업그레이드 버전.
- AI 모델을 학습하고 실행하는 데 있어 더 큰 데이터 세트를 처리하는 데 유리.
- 전력 소비와 기본 아키텍처는 유사하므로 기존 H100 인프라에서 쉽게 교체 가능.
👉 요약:
H200 = H100 + 더 큰 메모리(141GB) + 더 빠른 메모리 대역폭(4.8TB/s)
--------------------------------
2025.01.24
[각도기의 전략노트] SK하이닉스는 머지않아 삼성전자 시가총액 잡는다 | 인포맥스라이브 250123
'반도체-삼성전자-하이닉스-마이크론' 카테고리의 다른 글
미국의 반도체 기술인 블루치타 칩렛 (0) | 2025.01.26 |
---|---|
HBM과 SK하이닉스의 우위/6세대 D램 2월 생산(2025.01.25) (0) | 2025.01.25 |
SK하이닉스 실적-증권사별(2025.01.24) (1) | 2025.01.24 |
SK하이닉스,24년4분기 영업익 8조8백억원(2025.01.23) (0) | 2025.01.23 |
SK하이닉스,6세대 D램(1C D램) 2025년2월초 양산(2025.01.20) (0) | 2025.01.20 |