‘고성능 HBM’ 글로벌 시장서 SK하이닉스 독주 체제
SK하이닉스, 유일하게 4세대 제품 양산
‘챗GPT 열풍’으로 HBM 수요 급증 전망
‘칩(Chip)만사(萬事)’
마냥 어려울 것 같은 반도체에도 누구나 공감할 ‘세상만사’가 있습니다. 불안정한 국제 정세 속 주요 국가들의 전쟁터가 된 반도체 시장. 그 안의 말랑말랑한 비하인드 스토리부터 촌각을 다투는 트렌드 이슈까지, ‘칩만사’가 세상만사 전하듯 쉽게 알려드립니다.
[헤럴드경제=김민지 기자] 글로벌 D램 반도체 시장의 1위가 삼성전자라는 사실, 많은 분들이 알고 계실 겁니다. 약 45%의 점유율을 차지하고 있고, 그 다음으로 SK하이닉스가 28%로 2위죠. 미국 마이크론이 23%의 점유율로 SK하이닉스를 뒤따르고 있습니다.
그런데, 이런 일반적인 D램 보다 최소 3배 비싼 ‘알짜배기’에서는 이야기가 다르다고 합니다. SK하이닉스가 무려 시장의 절반을 차지하고 있는 고성능 제품이 있는데요. 최근 반도체 업계 관련 증권 리포트에서도 필수적으로 등장하는 ‘HBM’이 그 주인공입니다.
HBM이 도대체 뭐길래, SK하이닉스의 독주에 삼성전자와 마이크론이 애를 태우고 있는 것일까요? 오늘 칩만사의 주제는, AI 서비스 수혜를 톡톡히 보고 있는 HBM 입니다.
수직으로 쌓아 데이터 처리 속도 ↑
HBM은 한마디로 데이터 처리 속도를 혁신적으로 끌어올린 고성능 D램입니다. High Bandwidth Memory의 약자로, 여러 개의 D램을 수직 연결해 기존 D램보다 데이터 처리 성능을 크게 개선한 것이 특징입니다. 쉽게 말해 평면 구조를 수직 구조로 전환하면서 더 많은 데이터 전송 통로를 확보해 한꺼번에 많은 양의 데이터를 빠르게 전송할 수 있도록 한 것입니다.
HBM는 지난 2013년 SK하이닉스가 미국 AMD와 손잡고 세계 최초로 개발했습니다. 첫 1세대 제품은 SK하이닉스의 손에 탄생했지만, 2세대 제품인 ‘HBM2’는 2016년 삼성전자가 먼저 양산에 성공했습니다. 이에 질세라 2020년 SK하이닉스가 업계 최초로 3세대 제품 ‘HBM2E’ 양산에 돌입했고, 여기서 한걸음 더 나아가 지난해 6월 4세대 제품 ‘HBM3’ 양산을 시작했죠.
SK하이닉스, 유일하게 4세대 제품 양산
SK하이닉스와 삼성전자가 엎치락 덮치락 싸움을 이어왔지만, 지금으로서는 SK하이닉스가 훨씬 우세한 분위기입니다.
현재 4세대 제품인 HBM3를 양산하는 건 SK하이닉스가 유일합니다. 현재 삼성전자의 최신 HBM은 3세대 제품 ‘HBM-PIM’입니다. 삼성전자와 마이크론 모두 올해 말이나 내년 초에 HBM3 양산을 시작할 것으로 점쳐집니다.
그 결과 SK하이닉스는 HBM 시장에서 과반 이상의 점유율을 차지하고 있습니다. 시장조사업체 트렌드포스에 따르면, 지난해 글로벌 HBM 시장 점유율은 SK하이닉스 50%, 삼성전자 40%, 마이크론 10% 순이었습니다. 올해는 그 격차가 조금 더 벌어질 것으로 보입니다. SK하이닉스의 HBM 시장점유율은 53%로 전년보다 3%포인트 상승할 것으로 전망됐고, 삼성전자는 38%, 마이크론은 9%의 점유율을 기록할 것으로 예측됐습니다.
SK하이닉스는 삼성전자와 마이크론이 4세대 제품을 양산하기 전까지 격차를 더욱 벌리겠다는 전략입니다. 20일 세계 최초로 D램 단품 칩 12개를 수직 적층한 HBM3 제품을 개발했다고 밝혔습니다. 현존 최고 용량인 24GB(기가바이트)로, 기존 대비 용량을 50% 높였습니다. 핀(Pin)당 1Gbps에 불과하던 1세대 제품 속도는 4세대 HBM3에서는 6.4Gbps 향상됐습니다. 1초에 819GB의 데이터를 처리할 수 있는 것으로, FHD 영화 163편을 단 1초에 전송하는 엄청난 속도입니다.
‘최소 3배 비싼 고부가가치’ 미래 전망도 밝다
HBM 시장에서의 SK하이닉스의 독주에 경쟁자인 삼성전자와 마이크론은 애가 타는 모습입니다.
우선, HBM는 최고 성능 D램보다 평균판매단가(ASP)가 최소 3배 이상인 것으로 알려졌습니다. 고성능·저전력 구현이 가능한 만큼, 생산공정이 복잡하고 고난도의 작업이 필요하기 때문입니다. 그래서 이전까지만 해도 HBM 제품에 대한 수요는 높지 않았습니다. 현재 D램 시장에서 HBM이 차지하고 있는 비중은 약 1.5%에 불과합니다.
그러나 챗GPT가 모든 흐름을 바꿔놨습니다. 바로 챗GPT와 같은 생성형 인공지능 서비스에는 HBM 수준의 고성능 메모리 반도체가 필수이기 때문입니다.
챗봇과 AI 서비스가 늘어나면서 HBM 시장은 올해부터 2025년까지 연평균 40~45% 성장할 것으로 예상되고 있습니다. AI 서버 시장도 함께 확대될 것으로 보입니다. 시장조사업체 트렌드포스는 올해 AI 서버 출하량 성장률을 8%로 내다봤습니다. 지난해부터 2026년까지AI 서버 출하량 연평균 성장률은 10.8%에 달할 것으로 전망했죠.
아직까지는 SK하이닉스가 제일 먼저 치고 올라오는 모습입니다. 현재 챗GPT에 탑재되는 엔비디아의 GPU ‘A100’에는 SK하이닉스의 HBM2E가 탑재돼 있습니다. 차세대 엔비디아 GPU인 ‘H100’에도 SK하이닉스의 HBM3가 적용될 예정입니다.