HBM과 HBF 반도체 차이점 및 DRAM, NAND
AI 반도체 전쟁에서 메모리가 승패를 가르는 시대가 왔습니다. GPU보다 메모리가 더 중요해진다는 말, 이제는 현실입니다. HBM, HBF, DRAM, SRAM, NAND, 이처럼 이름은 들어봤지만 정확한 차이를 아는 사람은 드뭅니다. 이 글 하나로 5가지 메모리의 구조, 성능, 그리고 AI 시대의 역할까지 한번에 정리해 드립니다.

HBM이란 무엇인가?
HBM(High Bandwidth Memory)은 여러 장의 DRAM 다이를 수직으로 쌓아 TSV(Through Silicon Via) 기술로 연결한 고대역폭 메모리입니다. GPU와 인터포저(interposer)를 통해 초고속 데이터 전송을 가능하게 하며, AI 연산의 핵심 부품으로 자리잡았습니다. SK하이닉스, 삼성, 마이크론이 주요 공급사이며, 현재 HBM3E가 주력 제품입니다.
- 핵심 기술: DRAM 다이를 TSV로 8~16겹 적층, 인터포저로 GPU와 연결
- 현재 최신: HBM3E(16Hi), 1TB/s 이상 대역폭, SK하이닉스 16Hi 제품은 48GB 용량
- HBM4 예정: 대역폭 약 2TB/s, HBM3E 대비 2배 향상 목표
- 주요 용도: AI 학습·추론, GPU 가속 연산, 데이터센터 서버
- 특징: 휘발성 메모리(전원 끄면 데이터 소실), 고속·고가·저용량
- 핵심 단점: 비싼 생산 단가, 용량 확장에 물리적 한계 존재
📌 참고: SK하이닉스 HBM 공식 페이지
HBF란 무엇인가?
HBF(High Bandwidth Flash)는 HBM의 개념을 NAND 플래시에 적용한 차세대 메모리 기술입니다. 여러 장의 NAND 다이를 TSV로 수직 적층해 GPU에 고속 연결하며, HBM보다 최대 8배 높은 용량을 비슷한 비용으로 제공하는 것이 목표입니다. SanDisk가 최초로 공개했으며, SK하이닉스·삼성이 빠르게 합류하고 있습니다.
- 개념: NAND 플래시를 HBM처럼 수직 적층 → GPU 인터포저로 고속 연결
- 1세대 성능: 읽기 대역폭 1.6TB/s, 16단 적층 시 총 512GB 용량
- 2·3세대 예정: 2TB/s 및 3.2TB/s 목표, 용량 최대 1~1.5TB 예상
- 최대 장점: HBM 대비 최대 8배 용량, 비트당 비용이 매우 낮음, 비휘발성(전원 꺼도 데이터 유지)
- 상용화 일정: SanDisk, 2026년 하반기 샘플 출하 → 2027년 초 AI 추론 기기 적용 목표
- 표준화 현황: SanDisk·SK하이닉스 2025년 8월 MOU 체결, 삼성도 초기 개발 착수
HBM vs HBF 핵심 비교
HBM과 HBF는 둘 다 TSV 적층 기술을 사용하지만, 사용하는 메모리 소자의 종류가 완전히 다릅니다. HBM은 DRAM 기반으로 속도가 빠르지만 용량과 비용에 한계가 있고, HBF는 NAND 기반으로 용량이 방대하고 저렴하지만 속도는 DRAM보다 느립니다. AI 추론 워크로드에서는 두 기술이 함께 사용되는 HBM+HBF 이중 구조가 표준이 될 가능성이 높습니다.
| 구분 | HBM | HBF |
|---|---|---|
| 기반 소자 | DRAM | NAND 플래시 |
| 대역폭 | ~1~2TB/s | 1.6TB/s (1세대), 최대 3.2TB/s (3세대) |
| 용량 | 최대 수십 GB | 512GB~1.5TB (확장성 큼) |
| 비용 | 높음 | 낮음 (비트당 원가 우수) |
| 휘발성 | 휘발성 (전원 차단 시 소실) | 비휘발성 (데이터 영구 보존) |
| 상용화 | 현재 양산 중 | 2026~2027년 목표 |
| 주요 용도 | AI 학습·추론, 고속 연산 | AI 추론, 대용량 KV 캐시 |
- HBF의 강점: NAND 특성상 수백~수천 레이어 적층 가능 → 미래 용량 확장에 유리
- HBM의 강점: 지연시간(latency)이 훨씬 낮아 실시간 연산에 최적
- 조합 시너지: HBM(속도) + HBF(용량)으로 AI 추론 시스템의 메모리 병목 해소 기대
DRAM이란 무엇인가?
DRAM(Dynamic Random Access Memory)은 현재 PC, 서버, 스마트폰 등 거의 모든 전자기기에서 주 메모리로 사용되는 반도체입니다. 커패시터에 전하를 충·방전하는 방식으로 데이터를 저장하며, 주기적으로 재충전(Refresh)이 필요합니다. SRAM보다 느리지만 집적도가 높아 대용량 구현에 유리합니다.
- 동작 원리: 트랜지스터 1개 + 커패시터 1개로 1비트 저장, 주기적 리프레시 필요
- 주요 규격: DDR5(현재 주력), LPDDR5X(모바일), HBM3E(AI 서버용 DRAM)
- 특징: 휘발성, 전력 소비 중간 수준, 고집적·저비용
- 속도: SRAM보다 느리고, NAND 플래시보다는 빠름
- 용도: PC/서버 주 메모리, 스마트폰 RAM, GPU 메모리(VRAM)
- 최신 동향: DDR5는 최대 8400MT/s 전송 속도, AI 서버 수요로 DRAM 시장 급성장 중
SRAM이란 무엇인가?
SRAM(Static Random Access Memory)은 플립플롭 회로로 데이터를 저장하며, 리프레시 없이도 전원이 공급되는 한 데이터를 유지합니다. DRAM보다 속도가 훨씬 빠르지만 셀 크기가 크고 비용이 높아 소용량으로만 사용됩니다. 주로 CPU/GPU 내부 캐시 메모리로 활용됩니다.
- 동작 원리: 트랜지스터 6개로 1비트 저장, 리프레시 불필요, 전원 유지 시 데이터 보존
- 속도: 가장 빠른 메모리 유형, 나노초(ns) 단위 접근 가능
- 단점: 셀당 트랜지스터 수가 많아 DRAM 대비 집적도 낮고 가격 높음
- 주요 용도: CPU L1/L2/L3 캐시, GPU 셰이더 캐시, 네트워크 장비 버퍼
- 용량: 수 KB~수십 MB 수준의 소용량으로 주로 활용
- 특징: 고속 연산에 필수적인 ‘초고속 임시 저장소’ 역할
NAND란 무엇인가?
NAND 플래시는 전원이 꺼져도 데이터가 유지되는 비휘발성 메모리로, 스마트폰 저장공간(UFS), SSD, USB 드라이브 등 우리 일상에서 가장 많이 쓰이는 반도체 저장 장치입니다. 셀 하나에 전자를 가두는 방식으로 데이터를 기록하며, 이 셀을 수백 층으로 쌓는 3D NAND 기술 덕분에 고용량·저비용 구현이 가능합니다. HBF의 기반 소자이기도 해서, NAND를 이해하면 HBF를 훨씬 쉽게 이해할 수 있습니다.
- 동작 원리: 플로팅 게이트 또는 CTF(Charge Trap Flash)에 전자를 저장해 0과 1 표현
- 종류: SLC(1비트/셀, 고속·고내구), MLC(2비트), TLC(3비트), QLC(4비트, 고용량·저가)
- 3D NAND: 셀을 수평이 아닌 수직으로 수백 레이어 적층 → 삼성 V-NAND, SK하이닉스 4D NAND
- 최신 동향: 300단 이상 적층 기술 경쟁 중, SanDisk BiCS 기술은 HBF에 직접 적용
- 주요 용도: SSD, 스마트폰 저장장치(UFS), USB, 데이터센터 스토리지, HBF
- DRAM과의 차이: DRAM은 빠르지만 전원 끄면 소실, NAND는 느리지만 영구 보존·대용량·저가
5가지 메모리 한눈에 비교
5가지 메모리 타입은 각각 속도, 용량, 비용, 목적이 뚜렷하게 다릅니다. SRAM은 가장 빠르지만 소용량이고, DRAM은 범용 메인 메모리, HBM은 AI 연산의 핵심, NAND는 대용량 저장의 표준, HBF는 차세대 대용량 AI 메모리를 목표로 합니다. 현재 AI 서버는 CPU(SRAM 캐시 + DRAM) + GPU(HBM) + 스토리지(NAND SSD)의 구조이며, 향후 HBF가 HBM과 NAND SSD 사이 계층을 채우며 4계층 메모리 구조로 진화할 전망입니다.
| 구분 | SRAM | DRAM | HBM | NAND | HBF |
|---|---|---|---|---|---|
| 속도 | 최고속 | 중간 | 초고속 | 저속 | 고속(DRAM보다 느림) |
| 용량 | 소용량(KB~MB) | 중용량(GB) | 수십 GB | 수 TB | 수백 GB~수 TB |
| 비용 | 매우 높음 | 중간 | 높음 | 매우 낮음 | 낮음 |
| 휘발성 | 휘발성 | 휘발성 | 휘발성 | 비휘발성 | 비휘발성 |
| 적층 구조 | 없음 | 일반 | TSV 적층(DRAM) | 3D 수직 적층 | TSV 적층(NAND) |
| 주요 역할 | CPU/GPU 캐시 | 주 메모리 | AI 연산 가속 | 저장장치(SSD 등) | AI 대용량 추론 |
- AI 시대 메모리 계층 구조: SRAM(초고속·소용량) → HBM(고속·중용량) → HBF(고속·대용량) → NAND SSD(저속·초대용량)
- HBF = NAND의 진화형: 기존 NAND를 GPU 바로 옆에 TSV로 붙여 속도를 대폭 끌어올린 것이 HBF
- HBF 등장 배경: LLM 모델 파라미터 수 폭발적 증가 → HBM만으론 용량 부족 → HBF로 보완
- 꿀팁: 반도체 투자자라면 HBM 관련주(SK하이닉스, 마이크론)와 함께 HBF·NAND 관련주(SanDisk=SNDK)에도 주목하세요.
AI 메모리 시장 전망과 꿀팁
HBM을 개발한 KAIST 김정호 교수는 “AI 시대에는 GPU보다 메모리가 권력을 갖는다”고 말했습니다. 실제로 엔비디아의 AI 칩에서 HBM은 전체 원가의 상당 부분을 차지하고 있으며, HBM 공급이 AI 서버 출하 속도를 결정하는 병목이 되고 있습니다. HBF는 이 문제를 해결할 게임 체인저로 주목받고 있습니다.
- 시장 규모 전망: AI 서버 수요 급증으로 HBM 시장은 2025~2027년 연평균 30~40% 성장 예상
- HBF 상용화 타임라인: SanDisk 2026년 하반기 샘플 → 2027년 초 상용 AI 기기 탑재 목표
- 삼성의 움직임: HBF 초기 콘셉트 설계 착수, 구체적 양산 일정은 미정
- 표준화 경쟁: SanDisk+SK하이닉스 MOU로 사실상 HBF 표준 선점 경쟁 시작
- 투자 꿀팁: HBF 관련 핵심 기업 — SanDisk(SNDK), SK하이닉스(000660.KS), 삼성전자(005930.KS)
- FMS 2025 수상: SanDisk HBF가 ‘Best of Show, Most Innovative Technology’ 수상
자주 묻는 질문 (Q&A)
Q1. HBM과 HBF 중 AI 서버에 더 중요한 메모리는 무엇인가요? A1. 현재는 HBM이 AI 서버의 핵심 메모리입니다. 하지만 LLM 모델이 커질수록 HBM만으로는 용량이 부족해지기 때문에, 향후 HBM(속도) + HBF(대용량)의 조합이 AI 서버의 표준 구조가 될 것으로 전망됩니다.
Q2. HBF는 언제쯤 내 PC나 노트북에도 탑재될까요? A2. SanDisk는 2026년 하반기 HBF 샘플 출하를 목표로 하고 있으며, 2027년 초에는 AI 추론 기기(노트북·데스크탑 포함)에 탑재된 첫 제품이 등장할 것으로 예상됩니다. 소비자용 제품 탑재는 2028년 이후가 현실적입니다.
Q3. DRAM과 SRAM은 왜 아직도 함께 쓰이나요? A3. SRAM은 속도가 가장 빠르지만 비싸고 소용량이라 캐시에만 쓰이고, DRAM은 저렴하고 대용량이라 주 메모리로 쓰입니다. 두 메모리는 서로 보완적인 역할을 하기 때문에 함께 사용되며, 이 구조는 앞으로도 유지될 것입니다.
Q4. HBF가 HBM을 완전히 대체할 수 있나요? A4. 대체는 어렵습니다. HBF는 NAND 기반이라 DRAM 기반 HBM보다 지연시간(latency)이 길기 때문에, 실시간 고속 연산에는 여전히 HBM이 필요합니다. HBF는 HBM을 보조해 대용량 데이터 처리를 담당하는 역할로 자리잡을 전망입니다.
Q5. 반도체 초보자도 HBM·HBF 투자를 고려해도 될까요? A5. HBM은 이미 SK하이닉스, 삼성, 마이크론의 주가에 상당 부분 반영되어 있습니다. HBF는 아직 초기 단계이므로 기대 수익과 리스크가 모두 높습니다. 반드시 직접 최신 공시 자료를 확인하고, 전문 투자 상담사의 조언을 받으신 후 결정하시길 권장드립니다.
