반도체 이야기/인사이트

HBM 이야기 (3): HBM1에서 HBM4까지

마르쉘 2025. 3. 8. 13:11

지난 글 읽어보기

2025.03.03 - [반도체 이야기/인사이트] - 그래픽 메모리: (1) 그래픽 메모리는 뭐가 다를까?

 

그래픽 메모리: (1) 그래픽 메모리는 뭐가 다를까?

HBM에 대한 글을 쓰려고 해보니 그래픽 메모리에 대한 이해부터 먼저 필요하겠다는 생각이 들었습니다.이번 글에서는 그래픽 메모리에 대해서 짧은 글을 써두려고 합니다. 아주 예전으로 시간

spark104.com

 

2025.03.03 - [반도체 이야기/인사이트] - HBM 이야기 (1): HBM이란? 기존 메모리와 어떻게 다를까?

 

HBM 이야기 (1): HBM이란? 기존 메모리와 어떻게 다를까?

고성능 그래픽 카드와 AI 연산이 발전하면서, 메모리 기술 역시 빠르게 진화하고 있습니다. 특히 HBM (High Bandwidth Memory)은 기존 DDR 및 GDDR 메모리보다 월등히 높은 대역폭과 낮은 소비전력을 제공

spark104.com

2025.03.05 - [반도체 이야기/인사이트] - HBM 이야기 (2): 왜 HBM이 주목받는걸까?

 

HBM 이야기 (2): 왜 HBM이 주목받는걸까?

그래픽 메모리 그리고 기존 그래픽 메모리와 HBM으로 넘어가는 과정까지의 내용을 이전 글 3편을 통해 써보았습니다.이번 글에서는 HBM의 어떤 특징때문에 반도체 시장에서 주목받고 있는지에 대

spark104.com

 

이번 글에서는 HBM의 역사와 발전 과정에 대해서 다뤄보도록 하겠습니다.

HBM의 각 세대별 성능 개선의 특징과 응용 분야의 확장성에 대해서 써보고자 합니다. 전체적으로 보시면 HBM이 어떻게 AI, 고성능 컴퓨팅, 데이터센터 등에서 중요한 기술로 자리잡게 되었는지 확인하실 수 있을 듯 합니다.

 

 

1. HBM은 왜 등장했을까요?

 우리가 익히 알고 있는 GDDR 메모리는 그래픽 카드와 같은 고성능 장치에서 널리 사용되었지만, 데이터 처리량이 급증하면서 성능의 한계를 보였습니다.

 

 GDDR 메모리의 대역폭을 늘리기 위해 클럭 속도를 높이는 방법은 전력 소모와 발열 문제를 야기했기 때문에, 이러한 문제를 해결할 혁신적인 메모리 기술이 필요해졌습니다.

 

 여기서 등장한 것이 바로 **HBM(High Bandwidth Memory)**입니다.

 HBM은 TSV(Through-Silicon Via) 기술을 활용하여 칩을 수직으로 적층하는 방식을 채택, 대역폭을 극대화하면서도 전력 소모를 획기적으로 줄일 수 있었습니다.

 

 수직 구조 덕분에 데이터 전송 경로가 짧아져, 성능은 비약적으로 향상되었으며, 이는 AI, GPU, 데이터센터 등의 고성능 시스템에서 중요한 역할을 하게 되었습니다.

 

2. HBM1: 첫 번째 세대의 등장 (2015년)

 2015년, SK하이닉스와 AMD는 첫 번째 HBM 기술인 HBM1을 출시하며 반도체 시장에 큰 변화를 가져왔습니다.

 HBM1은 4단 적층 구조를 기반으로 설계되었으며, 최대 4GB의 용량을 지원했습니다. 그 당시의 주요 장점은 대역폭이 GDDR5의 4배에 달하며, 전력 소모가 40% 이상 절감된다는 것이었습니다.

 

 하지만 HBM1은 제조 비용이 매우 높았고, 생산 수율이 낮다는 단점이 있었습니다. 이로 인해 HBM1은 일부 고성능 그래픽카드에만 적용되었으며, GDDR5와 GDDR6 메모리의 가격 경쟁력에 밀려 상용화가 다소 제한적이었습니다.

 

3. HBM2: 성능 향상과 응용 범위 확장 (2016~2019년)

 2016년부터 2019년까지 출시된 HBM2는 HBM1의 한계를 극복하고 더욱 강력한 성능을 제공하였습니다.

HBM2는 대역폭이 1TB/s로 늘어나며, 최대 용량이 8GB로 확대되었습니다. 또한, 4단(4Hi)에서 8단(8Hi) 구조로 확장되어 성능이 크게 향상되었습니다.

 

 이 기술은 AMD의 Radeon Vega 64, 엔비디아의 Tesla V100와 같은 고성능 AI 가속기와 GPU에 적용되면서, AI, 빅데이터, 고성능 컴퓨팅(HPC) 분야에서 필수적인 메모리로 자리잡았습니다.

 

 하지만 여전히 높은 제조 비용과 생산성이 문제였으며, GDDR6 메모리가 메인스트림 시장에서 대체 역할을 하고 있었습니다. 그럼에도 불구하고 AI와 HPC 분야에서는 점차 HBM2의 채택이 늘어났습니다.

 

4. HBM2E: HBM2의 향상된 버전 (2019~2021년)

 HBM2E는 HBM2의 성능을 한층 더 개선한 버전으로, 2019년부터 본격적으로 상용화되었습니다. 대역폭은 1.2TB/s로 늘어나며, 최대 용량은 16GB로 확장되었습니다. 이러한 성능 향상 덕분에, AI, 데이터센터, 클라우드 컴퓨팅 등의 분야에서 필수적인 메모리로 자리 잡았습니다.

 

 HBM2E는 특히 엔비디아 A100, AMD MI100와 같은 AI 가속기와 데이터센터 GPU에서 활발히 활용되었으며, 데이터 처리의 효율성을 크게 개선하는 데 기여했습니다.

 

5. HBM3: 차세대 메모리의 도약 (2022년~현재)

 2022년부터 상용화된 HBM3는 이전 세대의 기술을 한층 더 발전시킨 고대역폭 메모리입니다. HBM3는 최대 3.2TB/s의 대역폭을 지원하며, 8단에서 16단의 적층 구조로 최대 64GB까지 용량을 확장할 수 있었습니다. 이러한 성능 향상은 AI, 데이터센터, 자율주행, 로봇 등 여러 고성능 응용 분야에서 HBM3를 필수적인 기술로 만들었습니다.

 

 HBM3는 현재 AI 연산과 데이터센터의 성능을 최적화하는 핵심 요소로 자리잡고 있으며, 특히 엔비디아 H100, AMD MI300X 등 최신 AI 가속기에 적용되고 있습니다.

 

6. HBM4와 그 이후의 기술 발전

 현재 HBM4는 개발 중에 있으며, 2025년에서 2026년경에 출시될 것으로 예상됩니다. HBM4는 대역폭이 6TB/s 이상으로 늘어나며, 전력 효율도 더욱 향상될 것으로 보입니다.

 

이러한 성능 향상은 AI 연산 속도와 데이터센터의 처리 능력을 획기적으로 개선할 것으로 기대됩니다. 또한, 자율주행, 로봇, 의료 AI 등 다양한 첨단 기술에 중요한 역할을 할 것입니다.

 

 

 

 HBM 기술은 AI, HPC, 데이터센터 분야에서 계속해서 핵심 기술로 자리잡고 있으며, 향후에도 HBM4를 포함한 더 발전된 기술이 산업 혁신을 이끌어 갈 것입니다. HBM 기술은 AI 연산 속도를 비약적으로 향상시키고, 데이터 처리의 효율성을 극대화하는 중요한 요소로서, 앞으로도 다양한 산업 분야에서 중요한 역할을 할 것입니다. HBM이 가진 가능성은 무궁무진하며, 이를 기반으로 더 발전된 기술 혁신이 이루어질 것으로 기대됩니다.