본문 바로가기

마이크로소프트 -엔비디아-AMD-인텔

엔비디아, '24년2분기 HBM3E 장착한 GH200 출시(2023.08.09)

2023.08.09

엔비디이 2024년2분기부터 사용 가능한 신규 칩 GH200을 발표했습니다.

GH200은 HBM3E 메모리를 장착하는데 기존 메모리의 3.5배를 장착한다고 합니다.

지금 시장에서 예상하는 HBM메모리 수요 증가율은 100%로 예상하는데 실제로는

더 많은 HBM메모리가 사용될 것같습니다.

 

Nvidia Launches New Chip Platform To Cash In on Generative AI Demand (investopedia.com)

엔비디아는 생성형 인공지능 수요에서 돈을 벌어줄 새로운 칩을 발펴할 것입니다.

 

Nvidia Corp. (NVDA) announced on Tuesday the release of a "groundbreaking" next-generation chip

as it seeks to fend off growing competition within the booming AI industry.

 

Nvidia Corp. (NVDA)는 화요일 "혁신적인" 차세대 칩을 출시한다고 발표했습니다. 

이로써 번창하는 인공지능 산업 내에서 점점 커져가는 경쟁을 방어하고자 합니다.

KEY TAKEAWAYS

  • Nvidia said its new GH200 Grace Hopper platform will offer up to 3.5x more memory capacity and 3x more bandwidth than existing platforms.
  • The new platform will be available via Nvidia's distributors starting in Q2 2024.
  • Advanced Micro Devices (AMD) unveiled in June its own next-generation graphics processing unit, the MI300X, in a challenge to Nvidia's AI market dominance.

Nvidia는 새로운 GH200 Grace Hopper 플랫폼이 기존 플랫폼보다 최대 3.5배 더 많은 메모리 용량과 3배 더 많은 대역폭을 제공할 것이라고 밝혔습니다. (기존 프랫폼이 H100이라면 80GB이니까 3.5배면 280GB가 장착되게 됨)

이 새로운 플랫폼은 2024년 제2분기부터 Nvidia의 유통 업체를 통해 사용 가능할 예정입니다

한편 Advanced Micro Devices (AMD)는 6월에 Nvidia의 AI 시장 지배력에 도전하는 자사의 차세대 그래픽스 처리 장치인 MI300X를 공개했습니다.

The Santa Clara, California-based firm said its next-generation GH200 Grace Hopper platform would rely on the world's first HBM3e processor, which is 50% faster than current HBM3 technology.1 The dual configuration will add up to 3.5x more memory capacity and 3x more bandwidth than the current chips on the market, allowing developers to run expanded Large Language Models (LLMs).

 

캘리포니아 주 산타클라라에 본사를 둔 이 회사는 차세대 GH200 Grace Hopper 플랫폼이 세계 최초의 

HBM3e 프로세서에 의존할 것이라고 밝혔습니다. 이 프로세서는 현재 HBM3 기술보다 50% 빠릅니다

이 이중 구성은 현재 시장에 있는 칩보다 최대 3.5배 더 많은 메모리 용량과 3배 더 많은 대역폭을 추가하여 

개발자들이 확장된 대형 언어 모델(Large Language Models, LLMs)을 실행할 수 있게 해줍니다.

 

Speaking at a conference on Tuesday, CEO Jensen Huang said the new technology would assist the "scale-out of the world’s data centers.” He added that “the inference cost of large language models will drop significantly,” referring to the generative stage of AI computing that follows the training of LLMs.

 

화요일에 회의에서 연설한 CEO 젠슨 황은 새로운 기술이 "세계 데이터 센터의 스케일 아웃을 지원할 것"이라고 말했습니다. 그는 "대형 언어 모델의 추론 비용이 크게 감소할 것"이라며, 이는 LLMs의 훈련을 마친 후의 AI 컴퓨팅의 생성 단계를 가리킵니다.

 

Nvidia's latest product launch comes after the buzz over AI technology rocketed the company to a $1 trillion valuation in May. Surging demand for its GPU chips and a predicted transition in data center infrastructure to accelerated computing saw Nvidia emerge as one of 2023's brightest market stars.

 

Nvidia의 최신 제품 출시는 AI 기술에 대한 관심이 높아져 5월에 회사의 시가 총액을 1조 달러로 치솟게 한 뒤에 이루어졌습니다. GPU 칩에 대한 급증하는 수요와 데이터 센터 인프라의 가속 컴퓨팅으로의 예상 전환은 Nvidia를 2023년 가장 빛나는 시장 스타 중 하나로 솟구치게 했습니다.

 

But its massive success has spurred competition. Fellow chipmaker Advanced Micro Devices (AMD) announced the release of its own GPU chip in June, the MI300X, to challenge Nvidia's dominance.

 

Nvidia will release its second-quarter earnings on August 23 and BofA analysts expect "less shock and awe" than last quarter when it raised second-quarter revenue guidance by 50% to $11 billion.

 However, analysts are still bullish on its longer-term prospects with Mizuho saying the company could generate $300 billion in revenue by 2027, ten times the $27 billion it made last year.

 

Nvidia는 8월 23일에 제2분기 실적을 발표할 예정이며, BofA 분석가들은 지난 분기와 달리 "덜 놀람과 경외"를 기대하고 있습니다. 지난 분기에는 제2분기 매출 전망을 50% 인상하여 110억 달러로 발표한 바 있습니다.

그러나 분석가들은 장기 전망에는 낙관적이고 미즈호는 회사가 2027년까지 3조 달러의 매출을 올릴 수 있다고 예상하는데 이는 작년 매출 270억 달러의 10배에 해당합니다.

 

------------------------

2023.08.09

美 엔비디아, 차세대 AI 칩 'GH200 그레이스 호퍼 슈퍼칩' 공개(종합) | 연합뉴스 (yna.co.kr)

 

美 엔비디아, 차세대 AI 칩 'GH200 그레이스 호퍼 슈퍼칩' 공개(종합) | 연합뉴스

(샌프란시스코=연합뉴스) 김태종 특파원 = AI 컴퓨팅 기술 분야 선두 주자인 미국 반도체 기업 엔비디아가 한 단계 진일보한 차세대 AI 칩을 ...

www.yna.co.kr