HBM 신화 이을 HBF… 고도화 나선 SK하이닉스
2026-02-27 (금) 12:00:00
서종갑 기자
▶ 샌디스크와 컨소 킥오프 회의
▶ OCP 산하 전담 협업체계 꾸려
▶ HBF, 비용·용량 장점에 기대
SK하이닉스가 미국 메모리 기업 샌디스크와 손잡고 인공지능(AI) 시대를 이끌 차세대 메모리 규격인 고대역폭플래시(HBF) 표준화를 추진한다.
초고속이나 용량에 한계가 있는 고대역폭메모리(HBM)와 대용량이지만 속도가 느린 솔리드스테이트드라이브(SSD)의 장점을 결합해 향후 폭발적 성장이 예상되는 AI 추론 시장을 선점하겠다는 포석이다.
SK하이닉스는 25일 미 캘리포니아주 밀피타스 샌디스크 본사에서 HBF 스펙 표준화 컨소시엄 킥오프 회의를 열고 글로벌 표준화 전략을 발표했다고 밝혔다. 양 사는 세계 최대 개방형 데이터센터 기술 협력체인 오픈컴퓨트프로젝트(OCP) 산하에 ‘전담 협업 체계(워크스트림)’를 꾸려 본격적인 규격 마련에 착수한다.
SK하이닉스 측은 “샌디스크와 함께 HBF를 업계 표준으로 확립해 AI 생태계의 동반 성장을 이끌겠다”고 밝혔다.
이번 협력은 AI 산업의 무게중심이 대규모언어모델(LLM) 학습에서 실시간 답변을 내놓는 추론으로 이동하는 지각변동에 따른 것이다. 다수 사용자가 동시 접속하는 추론 서버는 지연 없는 데이터 처리와 저전력이 필수다. 하지만 기존 HBM과 SSD의 메모리 구조로는 비용과 효율을 모두 충족하기 역부족이었다.
이 같은 한계를 깰 구원투수가 바로 HBF다. HBF는 HBM과 SSD 사이의 중간 다리 역할을 하는 신규 메모리 계층이다. 최상위 AI 서버에서 그래픽처리장치(GPU)를 돕는 HBM은 속도는 빠르나 비싸고 용량이 적다. 반면 데이터 창고인 SSD는 용량이 방대하지만 속도가 느려 병목 현상을 부른다.
HBF는 자주 쓰는 데이터를 미리 준비해 HBM으로 빠르게 넘겨줌으로써 HBM의 부담을 덜고 시스템 전체 용량을 넓힌다. 고가 HBM을 무한정 늘릴 필요가 없어 기업의 총소유비용(TCO)이 획기적으로 줄어든다.
업계는 HBF 등 차세대 복합 메모리 수요가 2030년 전후로 만개할 것으로 본다. 향후 AI 시장은 칩 단일 성능을 넘어 칩들을 아우르는 시스템 최적화가 경쟁력을 좌우하기 때문이다. HBM 선두 업체 SK하이닉스와 낸드플래시 강자 샌디스크의 기술 시너지가 강력한 파급력을 발휘할 것으로 전망되는 이유다.
안현 SK하이닉스 최고개발책임자(CDO) 사장은 “AI 인프라의 핵심은 단일 기술 경쟁을 넘어 생태계 전체를 최적화하는 데 있다”며 “HBF 표준화로 최적의 메모리 아키텍처를 제시해 새로운 가치를 창출하겠다”고 말했다.
<
서종갑 기자>