삼성전자가 2∼3년 내 반도체 매출 세계 1위를 되찾겠다고 선언하면서 그 ‘액션 플랜’에 눈길이 쏠린다. 삼성전자는 인공지능(AI) 가속기의 필수품인 고대역폭 메모리(HBM)의 시장 점유율을 확대하는 한편, HBM이 필요 없는 ‘AI 가속기(칩)’ 개발로 판을 뒤흔드는 ‘투트랙’ 전략을 펼칠 전망이다.
25일 업계에선 삼성전자의 5세대 HBM인 HBM3E가 엔비디아의 검증 절차를 통과할지 이목이 집중되고 있다.
HBM3E는 엔비디아가 연말 출시할 최신 AI 가속기 B100, B200 등에 탑재될 고성능 D램이다. AI 가속기는 그래픽처리장치(GPU)에 HBM을 붙여 데이터 처리속도를 높인 제품으로, 엔비디아가 관련 시장 90% 이상을 장악했다.
삼성전자가 엔비디아에 HBM3E를 납품하면 HBM 시장을 선점한 SK하이닉스를 추격할 발판이 마련된다. SK하이닉스는 이전 세대인 HBM3의 시장 점유율이 90% 이상이고, 최근 엔비디아에 HBM3E를 공급하기 시작했다.
젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자의 12단 HBM3E에 극찬을 아끼지 않으면서 납품 기대감은 더 높아졌다. 황 CEO는 최근 엔비디아의 ‘GTC 2024’ 행사에서 삼성전자 부스를 찾아 전시된 HBM3E 실물에 ‘젠슨 승인’(JENSEN APPROVED)이라는 사인을 남겼다. 테스트를 실제 통과했다는 뜻은 아니지만 납품 가능성이 커졌다는 분석이 나온다.
삼성전자의 다른 ‘비밀병기’는 자체 개발한 AI 가속기 ‘마하1’이다. 경계현 삼성전자 반도체(DS)부문 대표이사 사장이 지난 20일 주주총회에서 개발 사실을 깜짝 공개하며 연말 출시를 예고했다.
마하1은 ‘엔비디아 천하’를 뒤흔들 제품으로 주목받고 있다. 엔비디아 AI 가속기의 단점을 보완하고 가격을 대폭 낮출 것으로 기대돼서다.
AI 가속기는 AI가 대규모 데이터를 습득해 모델을 구축하는 ‘학습’과 해당 모델을 실제 서비스에 활용하는 ‘추론’ 과정에서 쓰인다.
엔비디아의 AI 가속기는 학습엔 유용하지만 추론엔 비효율적이라는 지적이 있었다. 학습에는 데이터를 동시에 처리하는 병렬 연산에 특화한 GPU가 어울리지만, 추론에선 GPU와 HBM이 대량의 데이터를 주고받는 과정에서 ‘병목 현상’이 발생해 속도 저하와 대량의 전력 소모가 발생한다.
최근 대다수의 빅테크가 엔비디아에 맞서 자체 AI칩 개발을 선언한 것도 이 같은 이유에서다. AI 추론에 적합한 AI 가속기를 사용하고 싶지만, 현재로서는 엔비디아 외엔 대안이 없다.
마하1은 추론에 특화된 AI 가속기다. 경 사장은 “마하1은 데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높인 제품”이라고 설명했다. 전력 효율이 높아지면 AI 가속기에 값비싸고 무거운 HBM 대신 저렴하고 가벼운 저전력(LP) D램을 사용해도 거대언어모델(LLM) 추론이 가능해진다. ‘HBM 없는 AI 가속기’ 시대를 여는 것이다.
가격 경쟁력도 유리하다. 전 세계적으로 품귀 현상을 빚고 있는 엔비디아의 AI 가속기 H100의 가격은 4만∼5만달러인 반면, 마하1은 10분의 1 수준인 4000∼5000달러가 될 것으로 보인다.
다만 마하1이 엔디비아의 AI 가속기를 완전히 대체할 수 있는 것은 아니다. 여전히 AI 학습에는 엔디비아의 AI 가속기가 최선이고, 최근 엔비디아가 공개한 최신 AI칩 ‘블랙웰’은 ‘괴물칩’이라는 별명이 붙을 정도로 성능이 향상되는 등 엔비디아의 시장 지배력은 확대일로를 걷고 있다. 기존 빅테크들도 AI 가속기의 구동 안정성을 따지면 엔비디아와의 협업을 지속할 가능성이 높다는 관측도 나온다.
삼성전자는 네이버와 마하1 공급을 논의 중인 것으로 알려졌다. 업계에선 삼성전자가 국내 AI 개발사 중 하나인 네이버에 대한 공급을 발판 삼아 글로벌 빅테크 공략에 나설 것으로 보고 있다.