2025.11.05
11월3일 ‘AI 시대, SK하이닉스가 그리는 새로운 비전과 기술(SK hynix, New Vision & New Technology in AI Era)’을 주제로 기조연설을 펼친 곽노정 대표이사 사장은 지난해 제시한 비전을 토대로 AI 확산 시대에 맞게 고도화하며, 기술 혁신과 생태계 협력의 방향을 한층 구체화했다.
곽 사장은 “AI 확산으로 데이터 이동량이 급격히 늘어나면서 이를 처리할 하드웨어의 성능 향상이 중요해지고 있지만, 메모리 속도가 프로세서의 발전 속도를 따라가지 못하는 ‘메모리 월(Memory Wall)*’ 현상이 기술 발전의 걸림돌로 지적되고 있다”고 말했다.
이어 “메모리는 더 이상 단순한 부품이 아닌, AI 산업의 핵심 가치 상품(Key Value Product)으로 그 중요성이 커지고 있다”며, “기존과 같은 수준의 성능 개선만으로는 더 이상 시장의 요구를 충족시킬 수 없다”고 덧붙였다.
* 메모리 월(Memory Wall): 프로세서와 메모리의 성능 차이로 생기는 데이터 병목 현상
이어 곽 사장은 “SK하이닉스는 고객이 원하는 제품을 적시에 공급하는 ‘풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’의 역할을 해왔지만, 앞으로는 고객의 문제를 함께 해결하고 생태계와 협력해 더 큰 가치를 만드는 풀 스택 AI 메모리 크리에이터(Full Stack AI Memory Creator)로 거듭나고자 한다”고 밝히며, “공동 설계자(Co-Architect)이자 파트너, 그리고 생태계 기여자(Eco-Contributor)로서 AI 인프라의 미래를 함께 설계해 나가겠다”고 강조했다.
이와 함께 곽 사장은 커스텀(Custom) HBM, AI-D(AI D램), AI-N(AI 낸드)을 세 축으로 한 ‘풀 스택 AI 메모리’ 전략을 공개했다.
먼저, 커스텀 HBM은 AI 시장의 요구가 범용성에서 추론 효율성과 TCO(총소유비용) 최적화로 확대됨에 따라, GPU와 ASIC에 탑재되던 일부 연산 기능을 HBM 베이스 다이(Base-Die)로 옮겨 성능을 극대화한 제품이다. 이를 통해 GPU와 ASIC의 연산 효율을 높이고, 통신 전력을 줄여 시스템 효율을 개선한다.
AI-D(AI D램)는 기존의 범용 D램을 넘어 AI 시대의 요구에 맞게 세분화된 제품군이다.
▲TCO 절감과 운영 효율화를 지원하는 저전력·고성능 D램 ‘AI-D O(Optimization)*’,
▲초고용량·고유연성 메모리 구조로 ‘메모리 월(Memory Wall)’ 한계를 극복하는 ‘AI-D B(Breakthrough)*’,
▲로보틱스·모빌리티·산업 자동화 등 응용 분야로 확장 가능한 ‘AI-D E(Expansion)*’을 개발하고 있다.
* AI-D Optimization: 데이터센터 최적화 설루션 제품으로 MRDIMM, SOCAMM2, LPDDR5R 등이 있음
* AI-D Breakthrouth: 메모리 월을 뛰어넘기 위한 설루션 제품으로 CMM, PIM 등이 있음
* AI-D Expansion: 데이터센터 뿐만 아니라 다른 용처에서 사용이 가능한 설루션 제품으로 HBM 등이 있음
AI-N(AI 낸드)은 AI 시스템의 고성능·고대역폭·초고용량을 아우르는 차세대 스토리지 설루션이다.
▲작은 Chunk Size를 통해 IOPS 성능을 크게 높인 초고성능 SSD ‘AI-N P(Performance)*’
▲HBM 적층 구조를 적용해 대역폭을 넓힌 ‘AI-N B(Bandwidth)*’
▲QLC 기반으로 PB(페타바이트)급 용량을 구현해 SSD의 속도와 HDD의 경제성을 동시에 확보한 ‘AI-N D(Density)*’ 등 세 방향으로 기술을 고도화하고 있으며, 이를 통해 AI 향 스토리지 경쟁력을 한층 강화하고 있다.
*AI-N Performance: 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 설루션으로 AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킴. SK하이닉스는 낸드와 컨트롤러를 새로운 구조로 설계 중이며, 2026년 말 샘플 출시 계획임
* AI-N Bandwidth: 낸드를 적층해 대역폭을 확대한 설루션으로 대용량, 저비용의 낸드에 HBM 적층 구조를 결합한 것이 핵심임
* AI-N Density: 저전력, 저비용으로 대용량 데이터를 저장하는 데 초점을 맞춘 고용량 설루션으로 AI 데이터 보관에 적합.
기존 QLC 기반 TB(테라바이트)급 SSD보다 용량을 최대 PB(페타바이트)급으로 높이고, SSD의 속도와 HDD의 경제성을 동시에 구현한 중간 계층 스토리지를 목표로 하고 있음
곽 사장은 기조연설을 마무리하며 “SK하이닉스는 계속해서 AI 산업 내 글로벌 플레이어들과 ‘원팀(One Team)’ 협업을 통해 차세대 AI 시대를 선도하는 메모리 기업으로 역할을 확장해 나가겠다”고 강조했다.
------------------------------
김호식 부사장(Memory System Research 담당)은 UC버클리 데이비드 패터슨(David A. Patterson) 명예교수, 스탠퍼드대학교 필립 웡(Philip Wong) 교수, 메타(Meta) 창규 김(Changkyu Kim) 디스팅귀시드 엔지니어(Distinguished Engineer), 멤버지(MemVerge) CEO 찰스 팬(Charles Fan)과 함께
‘AI 인프라 병목의 해법: 메모리 중심 아키텍처가 열어갈 미래(Overcoming the AI Infra Bottleneck : The Future Enabled by Memory Centric Architecture)’를 주제로 한 키노트 세션 내 패널 토의 세션에 참석했다. 김 부사장은 AI 연산 성능 확장을 위한 메모리 중심 아키텍처의 필요성과 산업 전반의 협력 생태계 구축 방안을 논의했다.
박경 부사장(Biz. Insight 담당)은 ‘AI Service Infra의 진화와 메모리의 역할’을 주제로 세션 발표를 진행했다.
박 부사장은 “AI 서비스는 초거대 모델 기반의 클라우드 추론부터 엣지 서버·디바이스의 경량화 모델까지 빠르게 다양회되고 있다”며, 메모리가 단순한 저장소를 넘어 AI 시스템의 성능을 좌우하는 핵심 자원으로 부상하고 있음을 강조하고, 메모리 기술이 AI 인프라의 혁신을 주도하는 핵심 역할을 하게 될 것이라고 분석했다.
주영표 부사장(System Architecture 담당)은 ‘메모리 기업 입장에서 바라본 시스템 업체와의 협업 필요성과 방향’을 주제로 발표하며, 워크로드별 요구에 최적화된 메모리 구조 구현을 위해서는 ASIC* 및 시스템 업체와의 긴밀한 협업이 필요하다고 강조했다. 또, 구조 설계, 인터페이스, 전력과 열 특성을 고려한 통합적 접근 방안을 제시했다.
* ASIC(Application Specific Integrated Circuit): 특정 목적을 위해 설계된 집적 회로. 주문형 반도체라고도 함
외부 연사인 버지니아대학교 이규상 교수는 ‘거대 연산망 구현을 위한 CPO 기반 차세대 연결 기술로의 진화’를 주제로 발표를 이어갔다.
이 교수는 “기존 전기적 인터커넥트가 대규모 AI 연산 환경에서 대역폭과 에너지 효율 측면의 한계에 직면해 있다”며, 이를 극복할 핵심 기술로 CPO(Co-Packaged Optics)를 제시했다. 또, 레이저 광원의 발열과 파장 변동 문제의 대안으로 마이크로 LED 기반 광원 채택의 가능성을 언급했다.
'반도체-삼성전자-하이닉스-마이크론' 카테고리의 다른 글
| 반도체 매수 의견 유지-대신증권(2025.11.05) (0) | 2025.11.08 |
|---|---|
| 중국 창신메모리 DDR5 생산 어려움(2025.11.08) (1) | 2025.11.08 |
| SK하이닉스가 말하는 ‘풀스택 AI 메모리(Full Stack AI Memory)’ 전략(2025.11.07) (0) | 2025.11.07 |
| SK하이닉스, HBM4 공급가 50% 올렸다(2025.11.05) (0) | 2025.11.05 |
| '블랙웰 26만장 효과'…AI 폭주가 불러온 메모리 대란, 이제 시작(2025.11.05) (0) | 2025.11.05 |