[K-반도체, 방패가 필요하다]② 반도체 지각 변동…AI ‘초격차’ 기술에 사활

28

[아이뉴스24 김종성 기자] 미-중 무역전쟁에서 시작된 ‘반도체 전쟁’에 일본과 유럽연합(EU)까지 보조금 경쟁에 가세하며 반도체 산업이 ‘머니게임’의 장(場)이 되고 있다. 글로벌 반도체 산업의 지각변동으로 한국의 ‘반도체 강국’의 지위가 강하게 위협받는 가운데, 한국의 K-반도체 산업 현황과 정부 지원의 문제점을 짚어본다. [편집자]

생성형 인공지능(AI) 시장 개화로 AI칩과 그에 필수적인 고대역폭메모리(HBM) 등에 대한 수요가 급증하고 있다. 여기에 미국을 비롯한 각국 정부가 자국 반도체 산업 육성을 위해 천문학적 규모의 보조금을 지급하는 등 글로벌 반도체 산업 지형이 대격변하고 있다.

한국의 반도체 업체들은 기존 메모리 반도체 시장 강자의 위치를 지키고, 향후 반도체 시장에서의 주도권을 확보하기 위한 ‘초격차’ 기술력 확보에 총력을 기울이고 있다.

SK하이닉스 생산 라인 전경. [사진=SK하이닉스]

◇ 5세대 HBM3E 주도권 쟁탈전 격화…선두 SK하이닉스 추격하는 삼성전자·美 마이크론

12일 업계에 따르면 삼성전자는 업계 최초로 개발에 성공한 5세대 HBM 메모리인 HBM3E 12단 제품의 샘플을 고객사에 제공하고 있다. 올해 상반기 중 양산에 들어갈 예정이다.

HBM은 D램 여러 개를 수직으로 쌓아 올려 데이터 처리 속도를 혁신적으로 끌어올린 고성능 메모리다. 엔비디아가 시장을 주도하고 있는 AI 가속기와 함께 AI 산업의 필수재로 꼽힌다. AI 기술이 적용된 기기들은 방대한 데이터 처리와 함께 저장 기능을 동시에 운영해야 한다. 때문에 데이터가 이동하는 대역폭(Bandwidth)이 중요하다. D램을 쌓아 올린 방식의 HBM은 압도적으로 큰 대역폭을 지니고 있다.

HBM은 1세대(HBM)→2세대(HBM2)→3세대(HBM2E)→4세대(HBM3)→5세대(HBM3E) 순으로 개발되고 있다. 현재는 SK하이닉스가 GPU 시장의 80%를 장악한 엔비디아에 HBM3를 사실상 독점 공급하며 HBM 시장 주도권을 쥐고 있다는 평가를 받고 있다. 삼성전자가 5세대 제품 개발에 성공하며 반격을 위한 ‘회심의 카드’를 꺼내든 셈이다.

삼성전자가 개발에 성공한 HBM3E는 현존하는 최고 용량인 36기가바이트(GB)를 구현해 기존 HBM3 8단 제품보다 성능과 용량 모두 50% 이상 향상시켰다. 6세대 HBM(HBM4)도 2025년 샘플링, 2026년 양산을 목표로 개발 중이다. 이를 통해 메모리 업계의 주도권을 되찾고 HBM 시장을 선점한다는 계획이다. 특히 HBM 공급 역량을 업계 최고 수준으로 유지하기 위해서 올해 작년 대비 2.5배 이상 생산능력(CAPA)을 확보해 운영할 계획이다.

현재 글로벌 AI 가속기 시장을 주도하고 있는 ‘큰 손’ 엔비디아의 최고경영자(CEO) 젠슨 황이 지난 18~21일(현지시간) 미국 새너제이에서 열린 개발자 컨퍼런스 ‘GTC 2024’ 기간 삼성전자 부스를 찾아 전시돼 있던 HBM3E 제품에 ‘승인’이라고 친필 서명을 남기기도 했다. 젠슨 황 CEO는 “현재 삼성 HBM을 테스트하고 있으며, 기대가 크다”고 언급하기도 했다.

엔비디아는 생성형 AI의 학습과 추론에 필수적인 AI 가속기 시장의 80% 이상을 장악하고 있다. 엔비디아는 ‘GTC 2024’에서 기존 제품보다 최대 30배 성능을 높인 차세대 AI 반도체 ‘블랙웰(B100·B200)’을 선보이며 AI 반도체 왕좌 굳히기에 나섰다. 엔비디아의 새로운 칩에 고성능 HBM이 탑재될 예정인 만큼 메모리업체들의 개발 경쟁도 더욱 치열해지고 있다.

젠슨 황 엔비디아 CEO가 지난 달 21일(현지시간) 미국 새너제이에서 열리는 연례 개발자 컨퍼런스 ‘GTC 2024’에 마련된 삼성전자 부스를 찾아 차세대 고대역폭메모리(HBM)인 HBM3E에 남긴 친필 사인. [사진=한진만 삼성전자 부사장 SNS 캡처]

SK하이닉스는 현재 엔비디아에 HBM3를 사실상 독점 공급하며 지난해 글로벌 HBM 시장의 50% 이상을 점유해 1위를 차지하고 있다. 특히, 업계에서 가장 먼저 HBM3E 8단 제품을 지난달말부터 고객사인 엔비디아에 공급을 시작했다. 아울러 ‘GTC 2024’에서 현재 제품화 단계인 HBM3E 12단 실물을 공개하기도 했다.

SK하이닉스는 “(HBM3E) 12단 제품도 국제반도체표준협의기구(JEDEC) 표준 규격에 맞춰 8단과 같은 높이로 구현할 것”이라며 “고객 일정에 맞춰 순조롭게 제품화가 진행 중”이라고 설명했다. 아울러 올해 6세대인 HBM4를 개발해 2026년 양산 목표로 HBM 시장 수성에 나선다. 앞서 이 회사는 지난 20일(현지시간) 미국 샌프란시스코에서 열린 국제고체회로학회(ISSCC) 콘퍼런스에서 HBM3E 16단 기술을 세계 최초로 공개하기도 했다.

메모리 3위인 미국의 마이크론은 4세대 제품인 HBM3를 건너뛰고 5세대 HBM3E로 직행하는 승부수를 띄웠다. 마이크론이 지난달 26일(현지시간) “올해 2분기 출시될 엔비디아 ‘H200’에 자사 HBM3E가 탑재될 예정”이라고 공개하며 대량 생산을 시작했다고 발표한 것. H200은 현재 엔비디아의 주력 제품인 H100을 대체할 차세대 제품이다.

현재 HBM 시장에서 마이크론의 시장점유율은 10%에 못 미친다. 그러나 이번에 시장 1위인 SK하이닉스보다 먼저 HBM3E 양산 소식을 공개하며 경쟁에 불을 붙이는 모양새다.

차세대 AI 메모리 개발이 속도를 내면서 HBM 시장은 빠른 속도로 성장할 것으로 전망된다. 글로벌 시장조사업체 욜그룹에 따르면 HBM 시장 규모는 올해 141억 달러(약 19조원)에서 5년 후인 2029년 277억 달러(약 50조원)으로 성장할 것으로 전망된다.

경계현 삼성전자 디바이스솔루션(DS)부문장(사장)이 지난달 20일 경기 수원컨벤션센터에서 열린 제 55기 주주총회에서 반도체 사업 전략과 관련해 발표하고 있다. [사진=삼성전자]

◇ ‘고객 맞춤형’ 메모리 전략 전환…삼성전자, ‘마하1’ 개발 공식화 AI 칩 도전장

기존 제조사가 특정 제품을 개발에 시장에 공급하는 범용 제품 위주에서 ‘고객 맞춤형’ 제품으로 전략을 수정하는 것도 AI가 반도체 시장을 바꾸는 큰 특징이다. AI 시스템의 경우 성능과 용량, 특화 기능 등 고객이 요구하는 메모리 성능이 천차만별이기 때문이다.

삼성전자는 지난해 12월 ‘메모리 상품기획실’을 신설했다. 메모리 상품기획실은 제품 기획부터 사업화 단계까지 전 영역을 담당하고, 고객 기술 대응 부서를 하나로 통합해 만든 조직이다. 생성형 AI 성장과 함께 고객 맞춤형 HBM에 대한 요구가 증가하는 상황에서 성능을 고객별로 최적화한 맞춤형 HBM 제품도 개발 중이다.

SK하이닉스는 ‘고객 맞춤형 메모리 플랫폼(Custom Memory Platform)’을 추진 중이다. AI 메모리 기술력과 연구·개발(R&D) 역량을 각 고객사의 요구와 최적으로 융합하기 위한 플랫폼이다. SK하이닉스는 이를 통해 각 고객사에 특화된 AI 메모리 솔루션을 제공한다는 목표다.

삼성전자와 SK하이닉스는 차세대 메모리 기술인 ‘컴퓨트 익스프레스 링크'(CXL) 생태계 확장에도 박차를 가한다. CXL은 AI, 머신러닝, 빅데이터 등 고성능 연산이 필요한 애플리케이션에서 서로 다른 기종의 제품을 효율적으로 연결할 수 있는 차세대 인터페이스다. 기존 메인 D램과 공존하면서 대역폭과 용량을 확장할 수 있다.

곽노정 SK하이닉스 사장은 올해 초 ‘CES 2024’에서 “어떤 고객에게는 용량과 전력 효율이 중요할 수 있고, 또 다른 고객은 대역폭과 정보처리 기능을 선호할 수 있다”며 “이런 요구에 대응하고자 SK하이닉스만의 고객 맞춤형 메모리 플랫폼을 준비하고 있다”고 말했다.

SK하이닉스는 ‘GTC 2024’에서 차세대 그래픽 D램인 ‘GDDR7’을 처음 공개하기도 했다. 최대 대역폭은 초당 128GB다. 이전 세대 대비 2배 증가했고 전력 효율성은 40% 개선된 제품이다. SK하이닉스는 “GDDR7이 대용량 데이터를 더 빠르게 처리하며 AI 기술을 고도화해 나가는 데 필수적인 역할을 할 것”이라고 설명했다.

글로벌 AI 시장이 학습에서 추론으로 빠르게 이동하는 가운데 삼성전자는 지난 20일 주주총회에서 메모리 병목 현상을 해결할 솔루션인 AI 반도체 ‘마하1’ 개발 소식을 깜짝 공개하기도 했다. 경계현 삼성전자 디바이스솔루션(DS) 부문장(사장)은 “메모리 처리량을 8분의 1로 줄이고, 8배의 파워 효율을 갖게 하는 것을 목표로 현재 개발 중인 마하1 AI 인퍼런스(추론) 칩은 혁신의 시작이 될 것”이라며 “HBM보다는 저전력(LP) 메모리를 써도 거대언어모델(LLM) 추론이 가능하도록 준비하고 있다”고 설명했다.

업계에서는 HBM 시장에서 SK하이닉스에 주도권을 뺏긴 삼성전자가 차세대 HBM 개발에 속도를 내는 한편, HBM을 사실상 대체할 마하1을 내세워 AI 반도체 시장의 판도를 바꾸는 ‘투트랙’ 전략을 취한 것으로 해석한다. 김동원 KB증권 연구원은 “AI 학습 과정에서는 전산 자원을 유연하게 활용할 수 있는 그래픽처리장치(GPU) 사용이 불가피하지만, 추론에서는 산업별, 업체별마다 추론 기능이 강화된 맞춤형 AI 칩이 더 효과적”이라고 말했다.

+1
0
+1
0
+1
0
+1
0
+1
0