고대역폭 플래시(HBF)가 AI 인프라를 재정의하다(2026.02.01)
2026.02.01
요약: HBF라는 메모리는 낸드플래시를 HBM처럼 적층하여 만드는 것인데,
연산 과정에서 메모리가 부족하나 값비싼 HBM을 무한정 늘릴수는 없기에
메모리 부족에 대비하여 상대적으로 저렴한 HBF를
사용하기로 하였는데 테스트 결과 HBM에 비해 2.2%정도의 성능 저하만 있었다.
사용 시기는 2028년정도로 예상하고 있다.
현재 미국 샌디스크와 SK하이닉스가 협력하여 개발하고 있다.
-------------------------------
Memory-Centric AI: Sandisk’s High Bandwidth Flash Will Redefine AI Infrastructure | Sandisk
메모리 중심 AI: 샌디스크의 고대역폭 플래시(HBF)가 AI 인프라를 재정의하다
이번 주 ‘미래 메모리 및 스토리지(FMS)’ 행사에서, 저는 샌디스크에서 약 2년간 개발해온 최신 메모리 기술인
고대역폭 플래시(High Bandwidth Flash, HBF)에 대한 업데이트를 발표했습니다.
우리는 AI 모델이 기하급수적으로 성장하는 반면, DRAM 기술의 발전 속도는 상대적으로 정체되어 나타나는 ‘컴퓨트-메모리 격차’, 즉 이른바 ‘메모리 월(memory wall)’ 문제를 해결하기 위해 HBF를 개발했습니다.
메모리 월 문제 해결
메모리 월 문제는 데이터센터와 엣지 AI 환경 모두에서 점점 더 심각한 도전 과제가 되고 있습니다.
데이터센터에서는 현재 이 문제를 해결하기 위해 주로 GPU 연산 성능을 계속 늘리는 방식에 의존하고 있습니다.
반면, 엣지 환경에서는 솔직히 말해 아직 마땅한 해결책이 없는 상황입니다.
HBF는 이러한 문제에 대한 우리의 해답입니다. 이 NAND 기반 아키텍처는 고대역폭 메모리(HBM) 대비 8배에서 16배에 달하는
용량을 제공하면서도, 동일한 가격대에서 같은 수준의 읽기 대역폭을 구현합니다.
데이터센터 환경에서는 HBF가 HBM을 보완해, GPU에 수 테라바이트(TB) 규모의
메모리를 연결할 수 있게 해줄 것으로 보고 있습니다.
또한 엣지 환경에서는, 비용·전력·공간 제약으로 인해 지금까지 구현이 어려웠던 고급 AI 모델들을 가능하게 하는 핵심 기술로
HBF를 활용하고자 합니다.
새로운 AI 패러다임
최근 몇 달 사이 공개된 최첨단 대형언어모델(LLM)들은 AI 기술 요구 사항에 있어 뚜렷한 변화 흐름을 보여주고 있습니다.
새로운 세대가 나올 때마다 모델의 크기와 컨텍스트 길이는 계속 확대되고 있으며, 이는 더 높은 메모리 용량에 대한 수요를 끊임없이 증가시키고 있습니다.
반면, 전문가 혼합(Mixture of Experts, MoE)과 같은 아키텍처 혁신이 도입되면서, 연산 자원에 대한 요구는 오히려 감소하는 방향으로 움직이고 있습니다.
샌디스크는 이러한 변화 흐름을 매우 긍정적으로 보고 있습니다. 더 많은 메모리와 더 적은 연산 성능을 동시에 요구하는 이 조합은, 우리가 ‘메모리 중심 AI(Memory-Centric AI)’라고 부르는 새로운 패러다임을 만들어내고 있으며, 이는 HBF 기반 시스템에 최적화된 구조라고 할 수 있습니다.

낸드의 재해석(NAND Reimagined)
새로운 패러다임을 정착시키는 일은 결코 쉽지 않습니다. 처음 HBF 개념을 소개했을 때, 업계에서는 상당한 회의적인 반응이 나왔습니다. 많은 사람들은 낸드(NAND) 기반 기술이 AI의 요구 수준을 충족할 수 없다고 생각했습니다.
낸드의 지연 시간이 너무 길고, 쓰기 속도가 DRAM에 미치지 못하며, 내구성에도 문제가 있을 것이라는 우려가 대표적이었습니다.
하지만 이러한 비판은 대부분 일반적인 SSD에 사용되는 기존 낸드를 떠올린 데서 비롯된 것이었습니다.
HBF는 그런 기존 낸드와는 전혀 다른, 초고성능을 목표로 새롭게 재설계된 기술입니다. 말 그대로 ‘완전히 다른 존재’에 가깝습니다.
이러한 HBF의 성능을 HBM과 비교해 보기 위해, 회사는 4,000억 개 파라미터를 가진 Llama 3.1 모델을 기반으로 한 시뮬레이션을 진행했습니다. 동일한 GPU 환경에서 HBF 기술을 적용한 경우와, HBM을 적용한 경우를 함께 비교한 것입니다.
원래 HBM 기반 GPU는 이처럼 대규모 모델을 단일 장치에서 구동하기 어렵습니다. 이를 보완하기 위해, 연구진은 HBM이 이론적으로 무한한 용량까지 확장할 수 있다고 가정하는, 다소 불리함을 상쇄해 주는 조건을 설정했습니다.
이러한 가정 아래 진행된 시뮬레이션은, 용량 차이는 배제한 채 순수하게 성능 차이가 워크로드에 어떤 영향을 미치는지를 분석하는 데 초점을 맞췄습니다.
추론 엔진의 여러 단계에서 결과를 관찰한 결과, 두 시스템 간 전체 성능 차이는 불과 약 2.2% 수준에 불과한 것으로 나타났습니다.

협력 파트너를 찾다(Finding Allies)
HBF에 대해 회의적인 시각이 있었던 것과 동시에, 샌디스크(Sandisk)는 이 기술을 함께 발전시키고자 하는 협력 파트너들과 혁신가들도 꾸준히 확보해 왔습니다. 이들은 HBF를 기반으로 자신들의 전문성을 적용하고, 새로운 아이디어를 실현하는 데 큰 관심을 보이고 있습니다.
대표적인 사례로는 Joungho Kim 교수가 이끄는 Korea Advanced Institute of Science and Technology 연구팀을
들 수 있습니다.
김 교수 연구팀은 100GB의 HBM을 캐시 계층으로 활용하고, 그 뒤에 1TB 규모의 HBF를 배치하는 구조를 제안했습니다.
이를 통해 HBF의 장점은 유지하면서도 성능 저하 문제를 최소화할 수 있다는 구상입니다.
KAIST에서는 김 교수를 ‘HBM의 아버지’로 부를 정도로 높이 평가하고 있으며,
저희는 그와 연구팀이 HBF를 혁신적인 플랫폼으로 채택한 것을 매우 기쁘게 생각하고 있습니다.
지난 2월 열린 샌디스크 투자자 설명회에서, 회사는 HBF를 위한 기술 자문위원회(Technical Advisory Board)를
설립하겠다고 발표했습니다.
이 자리에서 두 명의 자문위원을 공식적으로 소개했습니다.
한 명은 David Patterson 교수로, University of California at Berkeley 명예 교수이자 Google의 디스팅귀시드 엔지니어입니다. 또 다른 한 명은 Raja Koduri로, Oxmiq Labs의 창립자이자 CEO이며, 그래픽 아키텍처 분야의 리더로 잘 알려진 인물입니다.
샌디스크는 패터슨 교수와 라자 코두리 두 분이 HBF 개발과 생태계 구축을 이끌어 주게 된 것을 큰 영광으로 생각하고 있습니다.
자문위원회 설립과 함께, 회사는 HBF를 중심으로 한 표준 기반 생태계도 구축하겠다고 발표했습니다. 어떤 혁신 기술이든, 지속적으로 성장하기 위해서는 인프라와 업계 공감대, 그리고 다른 기업들이 함께 발전할 수 있는 기반이 필요하기 때문입니다.
이와 관련해 샌디스크는 SK hynix와 협력하여 HBF에 대한 포괄적인 산업 표준을 정의하기로 했습니다. 양사는 양해각서(MOU)를 체결했으며, 이를 기념해 행사 현장에서 SK하이닉스 낸드 개발 총괄인 우피오 정(Dr. Woopyo Jeong) 부사장과 함께 무대에 올랐습니다.

많은 분들이 이미 알고 계시듯이, SK하이닉스는 HBM이 업계 전반에 성공적으로 확산되는 데 결정적인 역할을 해왔습니다. 현재 양사는 HBF가 기술적·상업적으로 모두 확장 가능하도록, 그리고 각사의 고객 기대를 뛰어넘을 수 있도록 사양과 요구 조건을 함께 정립해 나가고 있습니다.
이번 협력은 견고한 HBF 생태계를 구축하는 기반이 될 것이며, 이러한 중요한 작업을 본격적으로 시작하게 된 것을 매우 기대하고 있습니다.
앞으로의 전망(Looking Forward)
샌디스크는 최근 FMS에서 ‘Best of Show, Most Innovative Technology(최우수 혁신 기술상)’을 수상하게 되어 큰 영광으로 생각하고 있습니다. 이는 2년 연속 수상으로, 우리의 노력이 인정받았다는 점에서 의미가 큽니다.
물론 이러한 상은 중요한 성과이자 격려이지만, 이에 만족하지 않고 앞으로도 더욱 혁신적인 기술 개발을 이어 나가겠다는 각오를 가지고 있습니다.
이와 관련해, HBF를 소개한 이후 가장 자주 받아온 질문은 바로 “HBF를 언제 실제로 볼 수 있느냐”는 것이었습니다.
이에 대해 샌디스크는 2026년 하반기에 HBF 메모리의 첫 샘플을 공급할 계획임을 공식적으로 발표했습니다.
또한 HBF를 탑재한 첫 번째 AI 추론 장비는 2027년 초에 샘플이 나올 것으로 기대하고 있습니다.
회사는 이러한 장치들이 대용량이면서도 매우 작은 공간을 차지하는 새로운 형태의 AI 메모리를 정의하게
될 것이라고 보고 있습니다. HBF는 데이터센터급 초대형 모델부터, 엣지 환경에서의 지속적인 개인화 서비스에
이르기까지 다양한 활용 사례를 가능하게 할 것으로 전망됩니다.
이를 통해 AI 추론 분야에서 전력 효율, 성능, 비용 구조 전반에 걸쳐 새로운 기준을 세우게 될 것이라는 것이 회사의 판단입니다.
샌디스크는 HBF를 ‘샌디스크 2.0’ 혁신 DNA의 핵심 요소로 포함하게 된 것을 매우 뜻깊게 생각하고 있으며,
HBF가 만들어 갈 미래를 큰 기대 속에서 바라보고 있습니다.
--------------------------
2026.02.01
‘HBM 확장판’ HBF 잡아라…삼성·SK 차세대 AI 반도체 쟁탈전
‘HBM 확장판’ HBF 잡아라…삼성·SK 차세대 AI 반도체 쟁탈전
추론으로 이동한 AI, 낸드도 ‘대역폭 경쟁’ SK는 표준화, 삼성은 아키텍처 확장 “2038년 HBM 넘어설 수도” 고대역폭메모리(HBM)를 중심으로 전개돼 온 메모리 반도체 경쟁이 고대역폭낸드플래시
v.daum.net