
HBM 개발 경쟁이 갈수록 뜨거워지고 있다.
HBM(High Bandwidth Memory)은 인공지능(AI) 데이터센터에 필수적인 고대역폭 메모리로, 대용량 데이터를 초고속으로 처리해야 하는 AI 모델 학습과 추론에 반드시 필요한 반도체이다. HBM은 여러 개의 메모리 칩을 적층하는 방식으로 설계돼 D램에 비해 월등히 빠른 데이터 전송 속도를 자랑한다.
AI 시대를 맞아 HBM 시장은 급성장하고 있다. 현대차증권에 따르면, HBM 시장은 2025년 476억달러에서 2026년 655억달러로 성장할 것으로 예상된다. AI 서버와 고성능 컴퓨팅(HPC)이 시장 성장을 견인하고 있다.
다만, 발열 문제를 해결해야 하는 과제를 안고 있다.
대표적인 AI 가속기인 엔비디아 H100은 초당 최대 67조번의 연산을 수행하면서 순간 온도가 88도까지 상승하고 다수의 메모리 칩을 쌓는 구조 특성상 층간 열 축적이 심해지는 것으로 알려져 있다. HBM3는 최대 동작 온도가 95도로 설정돼 있어 시스템 장애가 발생할 수 있는 이유이다.
이에 따라 낮은 발열과 높은 속도를 동시에 구현할 수 있는 CXL(Compute Express Link), SoCAMM(AI 서버 특화 저전력 디램 모듈), PIM(메모리 내 연산) 등 차세대 대안 기술이 주목받고 있다.
HBM 시장을 장악하고 있는 SK하이닉스는 차세대 HBM4 양산을 서두르고 있다. HBM4는 HBM, HBM2, HBM2E, HBM3, HBM3E에 이은 6번째 HBM으로, I/O 단자가 2배(2048개)로 늘어나면서 데이터 처리량을 크게 늘릴 수 있는 것으로 파악되고 있으며, 단순 패시브 구조 대신 로직 기반 설계를 도입해 SoC(System on Chip)와의 통합도를 높이고 지연 시간 감소 및 전송 안정성 개선을 꾀하고 있다.
SK하이닉스는 글로벌 시장을 장악하기 위해 개발에 총력을 기울이고 있으며, 삼성전자도 최근 2025년 하반기 HBM4 양산을 공식화했다.
글로벌 투자은행 맥쿼리는 SK하이닉스가 고객 맞춤형 HBM 시장을 주도할 것으로 보고 영업이익이 2024년 32조7260억원에서 2025년 44조4000억원, 2026년 68조8000억원, 2027년 90조7000억원으로 급증할 것으로 전망했다. 전체 D램 매출 가운데 HBM 비중이 2025년 45%에서 2027년 74%까지 상승하기 때문이다.
SK하이닉스는 엔비디아, 마이크로소프트(MS), 브로드컴 등을 확보하고 개별 수요처의 요구사항을 반영해 설계작업에 들어간 것으로 알려졌다 애플, 구글, 메타, 테슬라까지 확보한다면 반도체 사업이 날개를 달 것으로 평가된다. SK하이닉스가 7세대인 HBM4E부터 맞춤형으로 제작한다고 밝힌 것을 보면 글로벌 시장 장악이 꿈만은 아닐 것이다.
AI 시장 급성장과 함께 급부상하고 있는 HBM은 성능 향상과 더불어 발열·공정이라는 난제를 안고 있으나, HBM4 개발 경쟁과 함께 다양한 대체 기술 연구를 활발히 진행하고 있어 중국에 추격당하고 있는 국내 반도체산업에 활기를 불어넣고 있다.
SK하이닉스와 삼성전자의 글로벌 시장 선도를 기원하지 않을 수 없다.
다만, 국내 반도체 소재 생산력으로 볼 때 그저 안심하고 있기에는 이른 감이 없지 않다. 과연 반도체용 화학소재 생산기업들이 HBM4 양산에 맞추어 첨단 맞춤형 소재를 생산‧공급할 수 있을지 의문스럽기 때문이다. 삼성전자가 D램을 중심으로 글로벌 메모리 시장을 주도할 때도 반도체 소재는 대부분 일본산에 의존해 빛 좋은 개살구에 그쳤다는 비아냥이 끊이지 않았다.
국내 화학기업들이 첨단 반도체 소재를 개발하기 위해서는 자체적인 노력과 함께 신생 벤처기업들과 협업함으로써 개발기간을 단축하고 개발 코스트까지 낮추는 일거양득의 효과를 고려해야 할 시점이다.
반도체용 화학소재를 생산하는 화학기업들의 부단한 노력과 성과를 기대한다.
<화학저널 2025년 06월 23일>
|