2025.04.28
TSMC(대만 반도체 제조 회사)의 '시스템온웨이퍼 System-on-Wafer'(SoW) 기술은 전통적인 칩 설계 방식을 넘어서는 혁신적인 반도체 패키징 기술입니다.
이 기술은 전체 웨이퍼를 하나의 거대한 칩처럼 활용하여, 여러 개의 칩렛(chiplet), 메모리, 광학 인터커넥트 등을 단일 웨이퍼에 통합함으로써 고성능 컴퓨팅 요구를 충족시키는 것을 목표로 합니다 .pr.tsmc.com+6anandtech.com+6ExtremeTech+6
SoW 기술의 핵심 개념
웨이퍼 수준 통합: 전통적인 칩 설계는 개별 다이를 패키징하는 방식이지만, SoW는 전체 웨이퍼를 하나의 시스템으로 활용하여, 다수의 칩렛과 메모리를 통합합니다.
고성능 컴퓨팅에 최적화: 이러한 구조는 인공지능(AI), 고성능 컴퓨팅(HPC) 등 대규모 연산이 필요한 분야에 적합하며, 데이터 전송 속도 향상과 전력 효율 개선을 기대할 수 있습니다 .
🧱 주요 기술 구성 요소
CoWoS(Chip-on-Wafer-on-Substrate): TSMC의 기존 고급 패키징 기술로, 칩을 웨이퍼 위에 배치하고 이를 기판에 통합하는 방식입니다. SoW는 이 기술을 기반으로 발전되었습니다 .
SoIC(System on Integrated Chips): 3D 스태킹 기술로, 칩을 수직으로 적층하여 공간 효율성과 성능을 향상시킵니다. SoW는 SoIC와의 통합을 통해 더욱 강력한 시스템을 구현합니다 .
HBM(High Bandwidth Memory): 고대역폭 메모리로, SoW 구조 내에서 칩렛과의 긴밀한 통합을 통해 데이터 처리 속도를 극대화합니다 .
📈 SoW 기술의 장점
성능 향상: 다수의 칩렛과 메모리를 단일 웨이퍼에 통합함으로써, 데이터 전송 지연을 최소화하고 연산 속도를 높일 수 있습니다.
전력 효율성 개선: 통합 구조를 통해 전력 손실을 줄이고, 에너지 효율을 높일 수 있습니다.
공간 절약: 기존의 다이 기반 설계보다 공간 활용도가 높아, 동일한 면적에서 더 많은 기능을 구현할 수 있습니다.
🗓️ 향후 전망
TSMC는 SoW 기술을 기반으로 한 제품의 양산을 2027년으로 계획하고 있으며, 이를 통해 AI 및 HPC 분야에서의 경쟁력을 강화할 예정입니다 . 이러한 기술 발전은 반도체 산업의 패러다임을 변화시키고, 차세대 컴퓨팅 환경을 선도할 것으로 기대됩니다.
Festina Lente - Your leading source of AI news
Generative ai in Finance and Accounting Examples | Generative ai Google Tutorial | Best Microsoft Generative ai Tools | Microsoft/generative ai Github | Generative ai use Cases Mckinsey | Free ai Courses | Google Machine Learning Certification Free
www.turtlesai.com
---------------------------------
2025.04.26
TSMC's System-on-Wafer Platform Goes 3D: CoW-SoW Stacks Up the Chips
TSMC's System-on-Wafer Platform Goes 3D: CoW-SoW Stacks Up the Chips
TSMC has been offering its System-on-Wafer integration technology, InFO-SoW, since 2020. For now, only Cerebras and Tesla have developed wafer scale processor designs using it, as while they have fantastic performance and power efficiency, wafer-scale proc
www.anandtech.com
TSMC has been offering its System-on-Wafer integration technology, InFO-SoW, since 2020. For now, only Cerebras and Tesla have developed wafer scale processor designs using it, as while they have fantastic performance and power efficiency, wafer-scale processors are extremely complex to develop and produce. But TSMC believes that not only will wafer-scale designs ramp up in usage, but that megatrends like AI and HPC will call for even more complex solutions: vertically stacked system-on-wafer designs.
TSMC는 2020년부터 자사의 System-on-Wafer 통합 기술인 InFO-SoW를 제공해 왔다. 현재까지 이 기술을 활용해 웨이퍼 스케일 프로세서 설계를 개발한 기업은 Cerebras와 Tesla뿐이다.
웨이퍼 스케일 프로세서는 뛰어난 성능과 전력 효율을 갖추고 있지만, 개발과 생산이 매우 복잡하기 때문이다. 그러나 TSMC는 웨이퍼 스케일 설계의 활용이 앞으로 점점 확대될 것이며, AI와 HPC(고성능 컴퓨팅)와 같은 메가트렌드가 더욱 복잡한 솔루션, 즉 수직 적층형(System-on-Wafer) 설계를 요구하게 될 것이라고 보고 있다.
Tesla Dojo's wafer-scale processors — the first solutions based based on TSMC's InFO-SoW technology that are in mass production — have a number of benefits over typical system-in-packages (SiPs), including low-latency high-bandwidth core-to-core communications, very high performance and bandwidth density, relatively low power delivery network impendance, high performance efficiency, and redunancy.
이에는 낮은 지연 시간과 높은 대역폭을 갖춘 코어 간 통신, 매우 높은 성능 및 대역폭 밀도, 비교적 낮은 전력 공급망 임피던스, 높은 성능 효율성, 그리고 장애에 대비한 이중화(redundancy) 등이 포함된다.
또한 InFO-SoW 방식에서는 전체 웨이퍼를 하나의 제조 공정(fabrication technology)으로 처리해야 하므로, 특정 설계에서는 최적이 아닐 수 있고, 경우에 따라 너무 비싸질 수 있다.
그래서 TSMC는 차세대 시스템 온 웨이퍼(System-on-Wafer) 플랫폼에서 두 가지 패키징 기술, 즉 InFO-SoW와 SoIC(System on Integrated Chips)를 결합할 계획이다. 이를 통해 Chip-on-Wafer(CoW) 방식을 이용해 시스템 온 웨이퍼 위에 메모리나 로직 칩을 적층할 수 있게 된다.
TSMC는 이 기술을 "CoW-SoW"라고 부르며, 북미 기술 심포지엄에서 이를 발표했고, 2027년에 양산이 가능할 것으로 예상하고 있다.
현재로서는 TSMC가 주로 웨이퍼 스케일 프로세서와 HBM4 메모리를 결합하는 것을 논의하고 있다. HBM4 스택은 2048비트 인터페이스를 갖추게 될 예정이기 때문에, 로직과의 긴밀한 통합은 업계에서도 주목하는 주제이다.
TSMC의 비즈니스 개발 부사장인 케빈 장(Kevin Zhang)은 이렇게 말했다.
"향후 웨이퍼 수준 통합을 통해 고객들이 더 많은 로직과 메모리를 함께 통합할 수 있게 될 것입니다. SoW는 더 이상 허구가 아닙니다. 우리는 이미 고객들과 협력해 실제 제품을 생산하고 있습니다.
이러한 첨단 웨이퍼 수준 통합 기술을 활용함으로써, 고객들이 AI 클러스터나 슈퍼컴퓨터에 더 많은 연산 성능과 에너지 효율적인 컴퓨팅 능력을 가져올 수 있도록 돕는 중요한 길을 제공할 수 있다고 생각합니다."
----------------------------------
HBM4와 웨이퍼 통합이 AI/슈퍼컴퓨터에 왜 중요한지를 구조적으로 설명드리겠습니다:
🧠 HBM4와 웨이퍼 통합이 AI/슈퍼컴퓨터에 중요한 이유
1. AI·HPC 워크로드는 "메모리 병목(memory bottleneck)"을 심각하게 겪는다
- 현대 AI 모델(예: GPT-4, Ernie 4.5 Turbo)은 수천억 개 이상의 파라미터를 가지며,
➔ 엄청난 양의 데이터를 빠르게 읽고 쓰는 작업이 필수입니다. - 그러나 기존 DRAM이나 L3 캐시 기반 메모리 시스템은
- 대역폭(bandwidth)이 부족하고,
- 접근 지연(latency)이 커서,
- 연산 유닛(GPU, TPU)의 성능을 100% 활용하지 못하는 경우가 많습니다.
👉 "계산은 빠른데 메모리가 못 따라오는 문제"가 AI 성능의 핵심 병목입니다.
2. HBM4는 "대역폭 혁명"을 일으킨다
- HBM(High Bandwidth Memory) 기술은 메모리 칩을 수직으로 적층(Stacking)하여 대역폭을 극적으로 증가시키는 구조입니다.
- HBM4는 특히 다음과 같은 특징을 가집니다:
- 2048비트 인터페이스: 기존 HBM3의 1024비트보다 2배 넓음.
- 초고속 데이터 전송: 최대 1.2~1.4TB/s의 대역폭 가능.
- 전력 효율성 향상: 동일 대역폭 대비 소비 전력 감소.
👉 HBM4 덕분에 메모리 병목이 해소되어, GPU/AI 칩이 성능을 최대한 발휘할 수 있게 됩니다.
3. "웨이퍼 통합"은 메모리와 연산을 물리적으로 더 가까이 묶는다
- 기존에는 GPU/AI 칩과 HBM 메모리가 별도로 패키징되어, PCB(기판)나 인터포저를 통해 연결했습니다.
- ➔ 이 경우 신호 손실, 지연(latency), 전력 소모가 여전히 존재합니다.
- 웨이퍼 통합(CoW-SoW, System-on-Wafer) 방식에서는
- GPU/AI 코어와 HBM 메모리를 같은 웨이퍼 상에 수직 적층하거나 인접하게 연결합니다.
- 연결 거리가 짧아지고, 데이터 전송이 훨씬 빠르고 에너지 효율적이 됩니다.
👉 메모리와 로직이 물리적으로 가까워지면서, "메모리=병목" 문제를 사실상 없앨 수 있습니다.
4. 결국 AI·슈퍼컴퓨터가 "초고속·초대용량·초저지연"으로 진화할 수 있다
항목 전통적 설계 HBM4 + 웨이퍼 통합
데이터 대역폭 | 수백 GB/s | 1~2TB/s 이상 |
접근 지연(latency) | 수십 ns | 수 ns 수준 |
전력 소모 | 높음 | 대폭 절감 |
연산 활용도 | 60~80% 수준 | 90% 이상 가능 |
크기 및 집적도 | 낮음 | 매우 높음 |
👉 이 조합은 특히 GPT-5급 모델, DeepSeek R2급 차세대 모델, 초대형 슈퍼컴퓨터(AI 전용 슈퍼컴퓨터 포함)에서 필수적입니다.
🧩 정리
- HBM4: 압도적 대역폭과 효율성 제공
- 웨이퍼 통합(CoW-SoW): 로직과 메모리를 초근접 연결해 병목 제거
- ➔ 결론: AI 학습/추론 성능이 폭발적으로 향상되고, 초고밀도 AI 클러스터나 슈퍼컴퓨터 구축이 가능해진다
'반도체-삼성전자-하이닉스-마이크론' 카테고리의 다른 글
삼성전자 "HBM3E 개선제품 샘플공급 완료…2Q부터 고객 확대"(2025.04.30) (1) | 2025.04.30 |
---|---|
중국 알리바바의 인공지능 모델 QWEN3(2025.04.30) (0) | 2025.04.30 |
왜 추론 서버가 학습용 서버보다 더 많은 메모리를 요구할까?(2025.04.26) (0) | 2025.04.27 |
2026~2027년 데이터센터 투자 방향(2025.04.26) (0) | 2025.04.27 |
구글-AI 투자가 알파벳(Alphabet)의 1분기 호실적을 견인(2025.04.25) (0) | 2025.04.26 |