본문 바로가기
경제, AI 소식

HBM 다음 타자는 HBF일까? 차세대 AI 메모리 반도체의 핵심 변화

by Snowflake_눈송이 2026. 4. 12.
반응형

HBM 다음 타자는 HBF일까? 차세대 AI 메모리 반도체의 핵심 변화

요즘 반도체 업계를 보면, 예전처럼 단순히 “GPU가 얼마나 빠르냐”만으로 승부가 갈리지 않습니다. 저도 이 흐름을 볼수록 점점 더 분명하게 느끼게 되는데요. 이제는 연산 칩 못지않게 메모리 구조가 시스템 성능을 좌우하는 시대가 됐습니다. HBM이 AI 반도체 시장의 주인공으로 떠오른 이유도 결국 여기에 있습니다. 연산 유닛이 아무리 빨라도, 데이터를 제때 공급하지 못하면 전체 시스템은 느려질 수밖에 없으니까요.

그런데 바로 그 지점에서 새로운 이름이 등장했습니다. 바로 HBF(High Bandwidth Flash)입니다. 아직은 HBM만큼 대중적으로 익숙한 용어는 아니지만, 업계 안에서는 꽤 진지하게 바라보고 있는 차세대 메모리 개념입니다. 특히 거대 언어 모델, 멀티모달 AI, 음성·영상 기반 AI처럼 데이터 규모가 급격히 커지는 환경에서는 HBM만으로는 비용과 용량 측면의 한계를 모두 감당하기 어렵다는 지적이 커지고 있습니다.

여기서 HBF는 꽤 흥미로운 해법을 제시합니다. HBM이 속도 중심의 메모리라면, HBF는 용량과 대역폭의 균형을 통해 AI 추론 시대에 맞는 새로운 메모리 계층을 만들려는 시도에 가깝습니다. 낸드 플래시를 수직 적층하고, 이를 고속 연결 구조와 결합해 기존 SSD보다 훨씬 빠르고 HBM보다 훨씬 큰 저장 공간을 확보하려는 것이죠.

저는 HBF를 보면서 단순히 “HBM의 대체재”라고 보기보다, HBM의 빈칸을 채우는 현실적인 파트너에 가깝다고 생각합니다. 이번 글에서는 반도체 관점에서 HBF가 왜 나왔는지, HBM과 무엇이 다르고, 실제 AI 서버 아키텍처에서 어떤 역할을 맡게 될지 차근차근 정리해보겠습니다.

1. HBF란 무엇인가

“HBF는 낸드 기반의 수직 적층 메모리 아키텍처로, HBM급 대역폭과 SSD급 용량을 지향한다.”
KAIST Seminar, 2026

HBF는 High Bandwidth Flash의 약자입니다. 이름 그대로 낸드 플래시를 활용하면서도, 기존 SSD보다 훨씬 높은 대역폭을 목표로 설계된 차세대 메모리 구조죠. 쉽게 말하면 “저장장치”로 여겨지던 낸드를 AI 시스템 안쪽, 그것도 GPU와 훨씬 가까운 위치로 끌어와 새로운 역할을 맡기려는 개념입니다.

중요한 건 HBF가 단순한 고속 SSD가 아니라는 점입니다. 저는 이 부분이 핵심이라고 봅니다. 기존 SSD는 용량은 크지만 지연 시간이 길고 병렬성이 제한돼서 GPU가 실시간으로 참조하기에는 거리가 있었습니다. 반면 HBF는 낸드를 여러 층으로 쌓고, 고속 인터페이스와 로직 제어 구조를 붙여 HBM과 SSD 사이를 메우는 새로운 메모리 계층을 만들려는 시도입니다.

즉, HBF는 “완전히 새로운 저장장치”라기보다 AI 추론 시대에 맞춰 낸드의 역할을 재정의한 기술에 가깝습니다. AI 모델이 커질수록 모든 파라미터를 비싼 HBM에 올리는 방식은 비효율적이기 때문에, 대용량을 비교적 저렴하게 제공할 수 있는 HBF의 존재감이 커지고 있습니다.

2. HBM과 HBF의 차이

두 기술은 모두 칩을 수직으로 쌓아 대역폭을 높인다는 점에서는 닮아 있습니다. 하지만 내부 재료와 쓰임새는 꽤 다릅니다. HBM은 DRAM 기반이라 초저지연·초고속 연산에 강하고, HBF는 NAND 기반이라 대용량과 비용 효율 측면이 강점입니다.

비교 항목 HBM HBF
핵심 소재 DRAM NAND Flash
강점 낮은 지연, 높은 순간 대역폭 대용량, 상대적으로 낮은 비트당 비용
주요 역할 학습, 실시간 연산 추론, 캐시, 대규모 파라미터 저장
위치 GPU에 가장 가까운 메모리 HBM과 SSD 사이의 중간 계층
비용 구조 높음 상대적으로 유리

딱 한 줄로 요약하면 이렇습니다. HBM은 속도를 사는 메모리이고, HBF는 용량을 사는 메모리입니다. 그래서 둘은 완전한 대체 관계라기보다 역할 분담 관계로 보는 편이 더 정확합니다.

3. 왜 지금 HBF가 필요한가

AI 시대에 메모리 문제가 갑자기 커진 이유는 명확합니다. 모델이 너무 커졌기 때문입니다. 텍스트만 다루던 시절보다 지금은 음성, 이미지, 영상, 실시간 검색, 개인화 추론까지 붙으면서 한 번에 다뤄야 할 데이터 총량이 훨씬 늘어났습니다.

이때 문제가 되는 것이 바로 메모리 월(memory wall)입니다. GPU 계산 속도는 빠르게 올라가는데, 메모리 계층이 이를 받쳐주지 못하면 시스템 전체가 병목에 걸립니다. 샌디스크 역시 HBF를 소개하면서 AI의 “memory wall”를 해결하기 위한 새 낸드 형태라고 설명했습니다.

  • • HBM만으로는 대형 모델 전체를 올리기 어렵습니다.
  • • HBM을 무작정 늘리면 비용과 전력 부담이 급격히 커집니다.
  • • SSD만으로는 지연 시간과 데이터 이동 비용이 너무 큽니다.
  • • 그래서 HBM과 SSD 사이에 새로운 계층이 필요해졌습니다.

저는 바로 이 지점에서 HBF의 존재 이유가 가장 또렷하다고 봅니다. HBF는 단순히 빠른 낸드가 아니라, AI 추론 시대를 위한 구조적 보완재입니다.

4. 느린 낸드로 어떻게 고대역폭을 내나

“HBF는 성능을 위해 낸드를 다시 설계하는 접근이다. 핵심은 단일 칩 속도보다 병렬성과 시스템 수준 효율이다.”
Sandisk, 2025

많은 분들이 여기서 가장 먼저 묻습니다. “낸드는 원래 느린데, 그걸 쌓는다고 정말 AI용 메모리가 되나?” 저도 처음엔 이 질문이 가장 중요하다고 봤습니다. 결론부터 말씀드리면, HBF의 핵심은 단일 낸드 셀의 속도를 HBM처럼 만드는 것이 아니라 대규모 병렬 처리 구조와 데이터 경로 단축으로 시스템 체감 대역폭을 끌어올리는 데 있습니다.

즉, 낸드 하나하나는 느릴 수 있습니다. 하지만 여러 다이를 대량으로 적층하고, 이를 동시에 제어하는 로직 베이스 다이와 고속 인터페이스를 결합하면 이야기가 달라집니다. GPU 입장에서는 멀리 있는 SSD에서 데이터를 끌어오는 것보다 훨씬 짧고 두꺼운 통로로 데이터를 받게 되죠. 저는 HBF의 본질이 바로 “느린 부품을 빠르게 쓰는 아키텍처”라고 생각합니다.

여기에 하이브리드 본딩, TSV, 패키징 최적화, 발열 제어 같은 요소가 함께 붙습니다. 결국 HBF는 낸드 자체의 속도 혁신보다 패키징과 인터커넥트, 제어 로직을 포함한 시스템 반도체적 사고가 훨씬 중요합니다.

5. 삼성전자·SK하이닉스·샌디스크 전략

현재 가장 앞서 공개 행보를 보이는 축은 SK하이닉스와 샌디스크입니다. 두 회사는 2026년 2월 OCP 산하 공동 워크스트림을 통해 HBF 글로벌 표준화에 착수했다고 공식 발표했습니다. 여기서 중요한 포인트는 단순 협력이 아니라, HBF를 개별 회사의 실험적 기술이 아니라 생태계 차원의 표준 메모리 계층으로 키우려 한다는 점입니다.

기업 현재 포지션 포인트
SK하이닉스 HBM 강자 + HBF 표준화 선행 HBM·패키징 경험을 HBF로 확장
샌디스크 낸드 설계 중심 AI 추론용 HBF 개념과 메모리 월 해법 제시
삼성전자 낸드·패키징·CXL 연계 가능성 보유 본격 상용 경쟁 참여 가능성이 큰 플레이어

삼성전자는 아직 SK하이닉스·샌디스크처럼 같은 수준의 공식 표준화 발표가 전면에 나오진 않았지만, 업계 보도에서는 삼성 역시 HBF를 차세대 AI 메모리 옵션으로 검토 중이라는 관측이 이어지고 있습니다. 낸드, 패키징, 파운드리, CXL 관련 역량을 모두 가진 회사라는 점에서, 시장이 열리면 빠르게 대응할 수 있는 체력을 갖춘 플레이어라는 해석이 많습니다.

6. HBF가 바꿀 AI 메모리 시장의 미래

앞으로의 AI 인프라는 HBM 하나로 설명하기 어려워질 가능성이 큽니다. 학습에서는 여전히 HBM이 절대적으로 중요하겠지만, 추론 쪽은 전혀 다른 게임이 될 수 있습니다. 대규모 파라미터를 자주 불러오고, 멀티모달 입력을 처리하고, 사용자별 개인화 응답을 실시간으로 만들어내야 하기 때문입니다. 이때는 “최고 속도” 하나보다 얼마나 많은 데이터를 가까이에 두느냐가 더 중요해질 수 있습니다.

KAIST와 국내 업계 발표에서는 HBF가 수년 내 상용화 가능성이 있으며, 장기적으로는 수요 규모가 크게 커질 수 있다는 전망도 나옵니다. 다만 저는 여기서 과열된 기대는 조금 경계할 필요가 있다고 봅니다. HBF는 아직 본격 양산 시장이 열린 단계가 아니고, 표준화·수율·발열·소프트웨어 최적화까지 넘어야 할 벽이 여전히 많습니다.

  • • 단기: HBM 보완재로 AI 추론 인프라에 먼저 진입
  • • 중기: HBM + HBF + SSD의 계층형 메모리 구조 정착 가능성
  • • 장기: CXL, MCC 같은 확장 구조와 결합해 새 메모리 생태계 형성 가능성
  • • 관전 포인트: 표준화, 샘플 일정, 주요 고객사 PoC 성과

제 판단으로는, HBF는 HBM을 무너뜨리는 기술이라기보다 HBM 시대를 연장시키는 기술에 더 가깝습니다. HBM이 ‘속도’를 책임지고, HBF가 ‘용량’을 책임지는 구조가 자리 잡으면 AI 반도체의 확장성은 지금보다 훨씬 커질 수 있습니다.

Q&A

Q1) HBF는 HBM을 완전히 대체하는 기술인가요?
A1) 아직은 그렇게 보기 어렵습니다. HBM은 초저지연·초고속 연산용 메모리로 학습과 실시간 처리에 강점이 있고, HBF는 대용량·비용 효율을 앞세워 추론과 캐시 계층을 보완하는 방향이 더 현실적입니다.
Q2) 왜 하필 지금 HBF가 주목받는 건가요?
A2) AI 모델이 너무 커졌기 때문입니다. 멀티모달, 음성, 영상, 실시간 검색까지 붙으면서 전체 파라미터와 캐시 데이터가 급증했고, 이를 모두 HBM에 올리는 방식은 비용과 용량 측면에서 비효율적이 됐습니다.
Q3) HBF의 가장 큰 기술적 난제는 무엇인가요?
A3) 낸드 자체의 속도보다, 이를 고대역폭 시스템으로 묶어내는 패키징·발열·제어 로직·표준화가 더 큰 과제입니다. 결국 HBF는 메모리 기술이면서 동시에 시스템 아키텍처 기술입니다.
Q4) 현재 가장 앞서 있는 기업은 어디인가요?
A4) 공개 행보 기준으로는 SK하이닉스와 샌디스크가 가장 적극적입니다. 두 회사는 2026년 2월 HBF 글로벌 표준화 착수를 공식 발표했습니다. 삼성전자 역시 잠재력 있는 후발 강자로 계속 거론됩니다.
Q5) 투자자 관점에서 HBF를 볼 때 무엇을 체크해야 하나요?
A5) 표준화 진척, 샘플 공개 시점, 주요 GPU·클라우드 고객사의 검증, 발열과 패키징 수율, 그리고 HBM과의 병행 채택 여부를 함께 봐야 합니다. 기술성보다 생태계 채택 속도가 더 중요할 수 있습니다.

마치며

정리해보면 HBF는 “HBM 이후의 완전한 교체자”라기보다, AI 시대에 새롭게 필요한 메모리 빈칸을 채우는 다음 카드에 가깝습니다. HBM이 여전히 최고 속도의 핵심 메모리인 것은 분명하지만, AI가 거대해질수록 용량과 비용의 압박은 더 커질 수밖에 없습니다. 바로 그 틈에서 HBF가 의미를 갖습니다.

저는 개인적으로 HBF의 진짜 가치를 “낸드를 더 빠르게 만들었다”는 데서 찾지 않습니다. 오히려 AI 서버의 메모리 계층을 다시 설계하게 만들었다는 점이 더 중요하다고 봅니다. 학습에는 HBM, 추론과 대규모 데이터 보관에는 HBF, 그리고 장기 저장은 SSD로 이어지는 구조가 자리 잡는다면 앞으로 AI 인프라는 훨씬 더 유연하고 경제적으로 변할 수 있습니다.

결국 HBF의 승부처는 기술 자체보다 생태계 채택입니다. 표준화, 고객사 검증, 패키징 수율, 실제 추론 효율 개선이 확인되는 순간, HBM 다음 메모리의 주도권 경쟁은 생각보다 빠르게 뜨거워질 수 있습니다. 2026년 이후 반도체 시장에서 꼭 체크해야 할 키워드, 저는 HBF를 그중 하나로 봅니다.

 

관련 태그 : HBF, HBM, AI메모리, 고대역폭플래시, 고대역폭메모리, SK하이닉스, 샌디스크, 삼성전자, AI반도체, 낸드플래시

반응형