샌디스크와 SK하이닉스가 손잡고 ‘고대역폭 플래시 메모리(High Bandwidth Flash, HBF)’ 표준화를 추진(2025.08.07)
2025.08.17
요약: AI 추론(inference) 단계에서 DRAM(HBM)의 역할 중 ‘저장(storage)’ 성격이 강한 부분을
NAND로 대체한다는 발상입니다.
기존 HBM이 순수 DRAM 기반인 것과 달리, HBF는 메모리 스택의 일부를 NAND 플래시로 대체한다. 이로 인해 지연 시간(latency)은 다소 증가하지만, 용량은 최대 8~16배로 늘어나며 비휘발성(non-volatile) 특성을 갖는다.
즉, DRAM 수준의 대역폭을 유지하면서도 훨씬 높은 용량과 유사한 비용 구조를 달성할 수 있다.
이 접근은 AI 추론의 비용·전력·용량 한계를 해결하면서,
데이터센터의 “저장-연산” 경계를 점점 더 패키지 내부로 통합하려는 흐름의 일환이라고 볼 수 있습니다.
HBF(High Bandwidth Flash) 구조
- 기본적인 HBM 패키징 구조(적층 + 인터포저)는 그대로 유지하되,
스택의 일부 층을 DRAM 대신 NAND 플래시로 구성합니다. - 즉, 상단부는 DRAM (고속 캐시 역할),
하단부는 NAND (대용량·비휘발성 저장 역할) 로 구성하는 식입니다. - DRAM은 자주 접근하는 데이터를, NAND는 장기 저장이나 모델 파라미터·임시 데이터 보관용으로 담당할 수 있습니다.
--------------------
20253.08.07
Sandisk and SK hynix join forces to standardize High Bandwidth Flash memory,
a NAND-based alternative to HBM for AI GPUs — Move could enable 8-16x higher capacity compared to DRAM
샌디스크(SanDisk)와 SK하이닉스가 손잡고 ‘고대역폭 플래시 메모리(High Bandwidth Flash, HBF)’ 표준화를 추진한다
— 이는 AI GPU용 HBM을 대체할 수 있는 NAND 기반 메모리로, DRAM 대비 8~16배 더 높은 용량을 구현할 수 있을 것으로 기대된다.
Sandisk and SK hynix have just signed a memorandum of understanding to collaborate on what could become a pivotal advancement in AI memory infrastructure. Announced in a press release, this agreement aims to standardize “High Bandwidth Flash” (HBF), a NAND flash-based memory technology built into HBM-like packages.
샌디스크(SanDisk)와 SK하이닉스가 **AI 메모리 인프라의 핵심 전환점이 될 수 있는 기술 협력 양해각서(MOU)**를 체결했다. 양사는 보도자료를 통해, HBM(고대역폭 메모리)과 유사한 패키징 구조에 NAND 플래시를 결합한 새로운 메모리 기술인 ‘고대역폭 플래시(High Bandwidth Flash, HBF)’의 표준화를 공동 추진한다고 밝혔다.
This marks the first serious industry push to fuse flash and DRAM-like bandwidth into a single stack, potentially transforming how AI models access and process data at scale.
이는 플래시 메모리의 대용량 특성과 DRAM급 대역폭을 하나의 스택(stack)에 통합하려는 업계 최초의 본격적인 시도로,
대규모 AI 모델의 데이터 접근 및 처리 방식을 근본적으로 바꿀 수 있는 잠재력을 지닌다.
Unlike traditional HBM, which relies exclusively on DRAM, HBF substitutes parts of the memory stack with NAND flash—trading raw latency for significantly higher capacity and non-volatility.
The approach allows HBF to deliver up to 8–16x the capacity of DRAM-based HBM, at comparable costs,
while still targeting similar bandwidth levels.
기존 HBM이 순수 DRAM 기반인 것과 달리, HBF는 메모리 스택의 일부를 NAND 플래시로 대체한다. 이로 인해 지연 시간(latency)은 다소 증가하지만, 용량은 최대 8~16배로 늘어나며 비휘발성(non-volatile) 특성을 갖는다.
즉, DRAM 수준의 대역폭을 유지하면서도 훨씬 높은 용량과 유사한 비용 구조를 달성할 수 있다.
Unlike DRAM, which requires constant power to retain data, NAND is non-volatile, enabling persistent storage with reduced energy demands.
또한 DRAM과 달리 전원이 끊겨도 데이터가 유지되므로, 지속적인 전력 공급이 필요 없고 에너지 효율이 높다.
이러한 차별점은 **AI 추론(inference)**이 점점 더 에너지 제약이 큰 환경으로 확장되는 시점에서 매우 중요하다.
현재 하이퍼스케일러(대규모 클라우드 인프라를 보유한 기업)들은 추론 연산을 엣지(edge) 환경까지 분산시키고 있으며, AI 데이터센터의 냉각 및 전력 예산은 이미 한계에 다다르고 있다.
따라서 HBF는 향후 AI용 저전력·대용량 메모리 아키텍처의 새로운 표준으로 자리 잡을 가능성이 높다.