AI 기술의 폭발적 성장이 데이터센터의 전력 소모와 발열 문제를 심각한 수준으로 끌어올리면서, 기존 고대역폭메모리(HBM) 기술의 한계가 부각되고 있습니다. 이러한 상황에서 소프트뱅크의 AI 메모리 전문 자회사인 사이메모리가 인텔과 손잡고 공개한 9 층 HB3DM 기술은 업계의 이목을 집중시키고 있습니다. 이 기술은 극도로 얇은 3 마이크로미터 두께의 칩을 9 층으로 적층하고 층과 층을 완전하게 접합하는 방식을 통해 HBM이 가진 전력 소비와 발열 문제를 획기적으로 개선한 차세대 3 차원 메모리 솔루션입니다.
기존 HBM은 메모리 칩을 여러 층으로 쌓되 층 사이를 마이크로 범프로 연결하는 방식이라 전력 효율이 낮고 용량 확장에도 제약이 있었습니다. 반면 HB3DM 은 퓨전 본딩 기술을 적용해 칩을 거의 완전히 접합하고, 비아-원-인 구조를 통해 금속 배선을 수직 연결선에 직접 연결함으로써 신호 전달 속도를 높이고 전력 효율을 크게 개선했습니다. 특히 mm²당 약 0.25 테라비트/초의 높은 대역폭을 낮은 전력으로 구현할 수 있어, 급증하는 AI 데이터센터의 전력 비용 부담을 덜어줄 수 있는 핵심 기술로 평가받고 있습니다.
이번 기술 발표는 6 월 미국 하와이에서 열리는 VLSI 심포지엄에서 처음 공개될 예정이며, 이는 2026 년 2 월 체결된 양사의 기술 협력 계약인 ZAM 프로젝트의 첫 공식 성과입니다. 사이메모리는 2027 년 프로토타입 완성과 2029 년 상용화를 목표로 개발을 진행 중이지만, 아직은 9 층 구조로 인해 HBM 대비 용량이 부족해 AI 가속기 시장 진입에는 추가적인 개선이 필요하다는 지적도 있습니다. 또한 메모리 분야 대량 생산 경험이 부족하다는 점은 향후 양산 시 수율과 비용 경쟁력을 가늠하는 중요한 변수로 작용할 것입니다.
시장 전문가들은 2027 년까지는 HBM4 가 시장을 주도하겠지만, 2028 년 이후부터 HB3DM 기반 제품이 본격적인 도전을 펼칠 것으로 내다보고 있습니다. AI 메모리 시장이 단순히 성능과 대역폭을 쫓는 경쟁에서 성능과 효율의 균형을 맞추는 싸움으로 패러다임이 전환되고 있는 시점에서, HB3DM 은 효율성 측면에서 강력한 대안으로 부상할 가능성이 큽니다. 향후 사이메모리가 양산 과정에서 수율과 생산 규모를 어떻게 극복해 나갈지, 그리고 이 기술이 실제 AI 워크로드에 얼마나 효과적으로 적용될지가 주목해야 할 포인트입니다.