• 페이스북
  • 네이버블로그
  • 네이버포스트
주요뉴스
삼성전자, HBM과 AI 가속기 ‘마하-1’ 투트랙 전략···AI생태계 확장
삼성전자, HBM과 AI 가속기 ‘마하-1’ 투트랙 전략···AI생태계 확장
  • 김규철 기자
  • 승인 2024.03.26 13:24
  • 댓글 0
이 기사를 공유합니다

5세대 고대역폭 메모리 HBM3E 연내 양산
삼성-네이버 공동개발 AI가속기 ‘마하-1’···엔비디아 가속기 대적할 수준
‘마하-1’, 병목현상↓·가격경쟁력↑···반도체 왕좌 탈환 시동

삼성전자가 인공지능(AI) 가속기의 필수품인 고대역폭 메모리(HBM)과 함께 HBM이 필요 없는 AI 가속기() ‘마하-1’ 투트랙 전략을 통해 국내 AI 생태계 확장에 나설 것으로 보인다. 삼성전자가 최근 출시를 예고한 '마하-1'은 네이버와 공동 개발한 AI반도체칩이다.

26일 반도체업계에 따르면 삼성전자와 네이버는 약 1년여 간 공동 진행한 AI 반도체 연구개발을 마무리하고 올해부터 삼성전자 생산-네이버 납품의 형태로 AI 생태계를 구축한다는 계획이다. 엔비디아 중심의AI 시장에 도전장을 던진 삼성전자는 23년 내 글로벌 반도체 매출 1위 자리를 탈환하겠다는 목표다.

현재 삼성전자는 HBM 등 메모리반도체에서 SK하이닉스에 밀리고, 파운드리에서는 대만 TSMC를 쫓아가는 상황이다. 다만, 아직 AI칩 분야에서 확고하게 ‘1자리를 구축한 곳은 없다. 현재 독주 체제인 엔비디아의 경우 GPU 가격이 너무 비싼 데다, AI 추론에는 과한 스펙이라고 평가받고 있다.

이에 삼성전자가 생각해낸 것은 설계분야 중소 강자들과 손을 잡는다는 전략이다. AI칩은 향후 삼성전자 반도체 사업의 방향을 바꿀 게임 체인저로 기대를 모으고 있는 상황이다.

삼성전자 5세대 HBMHBM3E, 엔비디아에 연내 납품 기대

삼성전자의 5세대 HBMHBM3E가 엔비디아의 검증 절차를 통과해 연내 납품이 본격화될 전망이다.

삼성전자의 36GB HBM3E 12H D램
삼성전자의 36GB HBM3E 12H D램

HBM3E는 엔비디아가 올해 연말 출시 예정인 최신 AI 가속기 B100, B200 등에 탑재될 고성능 D램이다. AI 가속기는 그래픽처리장치(GPU)HBM을 붙여 데이터 처리속도를 높인 제품으로, 엔비디아가 관련 시장 90% 이상을 장악했다. 이러한 상황에서 SK하이닉스가 이전 세대인 HBM3의 시장 점유율 90% 이상을 차지하고 있으며, 최근 엔비디아에 HBM3E를 공급하기 시작해 그 입지를 더욱 공고히 하고 있다.

다만 삼성전자가 엔비디아에 HBM3E를 납품하게 되면 HBM시장을 선점한 SK하이닉스를 추격할 수 있게 된다. 특히 젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자의 12HBM3E에 극찬을 아끼지 않으면서 납품 기대감을 더욱 높이고 있다.

CEO는 최근 엔비디아의 ‘GTC 2024’ 행사에서 삼성전자 부스를 찾아 전시된 HBM3E 실물에 젠슨 승인’(JENSEN APPROVED)이라는 사인을 남겼다. 테스트를 실제 통과했다는 뜻은 아니지만 이를 통해 납품 가능성이 커졌다는 분석이 제기되는 상황이다.

젠슨 황 엔비디아 최고경영자(CEO)가 미국 새너제이에서 열리는 연례 개발자 콘퍼런스 'GTC 2024'에 마련된 삼성전자 부스를 찾아 차세대 고대역폭 메모리(HBM)인 HBM3E에 친필 사인을 남겼다.
젠슨 황 엔비디아 최고경영자(CEO)가 미국 새너제이에서 열리는 연례 개발자 콘퍼런스 'GTC 2024'에 마련된 삼성전자 부스를 찾아 차세대 고대역폭 메모리(HBM)인 HBM3E에 친필 사인을 남겼다.

삼성전자의 비밀병기 마하-1’, AI반도체 시장 지각변동 가져올까

글로벌 반도체시장 1위를 탈환을 목표로 한 삼성전자의 또 다른 비밀병기는 네이버와 공동 개발한 AI 마하-1’이다.

경계현 삼성전자 반도체(DS)부문 대표이사 사장은 지난 20일 주주총회에서 마하-1’ 개발 사실을 깜짝 공개하며 연말 출시를 예고했다. ‘마하-1’은 엔비디아 AI 가속기의 단점을 보완하고 가격을 대폭 낮춰 엔비디아 중심의 시장에 균열을 일으킬 것으로 기대된다.

삼성전자와 네이버는 지난 2022년부터 실무 태스크포스(TF)를 구성하고 AI 반도체 솔루션 개발을 시작했다. 네이버가 AI 서비스에 필요한 과제를 제시하면 삼성전자가 하드웨어적인 부분을 해결하고, 이를 다시 네이버가 검증하는 방식이다.

마하-1’ 개발에는 이동수 네이버클라우드 이사와 경량화AI 연구팀이 참여했다. 이동수 이사는 과거 삼성전자 산하 삼성리서치에서 딥러닝 분야를 약 4년간 연구한 바 있다.

이들이 개발한 마하-1은 프로그래머블반도체(FPGA) 방식이다. , 개발자가 설계를 변경할 수 있는 반도체로, 용도에 맞게 회로를 다시 새겨 넣을 수 있다. 이 때문에 여타 그래픽처리유닛(GPU) 등과 달리 유연성이 있으며 응용 분야도 넓은 것으로 평가받고 있다.

마하-1’은 자체 개발 프로세서에 고대역폭메모리(HBM) 대신, 저전력(LP) D램을 묶는 방식으로 설계됐다. 그만큼 더 가볍고 병목현상도 없다. 기존 AI칩과 동일한 성능을 유지하면서, 전력 효율은 8배 이상을 자랑한다. GPU와 고대역폭메모리(HBM)로 구성된 엔비디아 AI 가속기보다 전력 소모량은 적지만 속도는 빠르다.

AI 가속기는 AI가 대규모 데이터를 습득해 모델을 구축하는 학습과 해당 모델을 실제 서비스에 활용하는 추론과정에서 사용된다.

엔비디아의 AI 가속기는 학습엔 유용하지만 추론엔 비효율적이라는 지적이 제기되는 상황이다. 학습에는 데이터를 동시에 처리하는 병렬 연산에 특화한 GPU가 어울리지만, 추론에선 GPUHBM이 대량의 데이터를 주고받는 과정에서 병목 현상이 발생해 속도 저하와 대량의 전력 소모가 발생한다.

최근 대다수의 빅테크가 엔비디아에 맞서 자체 AI칩 개발을 선언한 것도 이 같은 이유에서다. AI 추론에 적합한 AI 가속기를 사용하고 싶지만, 현재로서는 엔비디아 외엔 대안이 없는 상황이다.

하지만 삼성전자와 네이버가 개발한 마하-1’은 추론에 특화된 AI 가속기로 본격적으로 양산될 경우 엔비디아에 대적할만한 강력한 경쟁력을 구축할 것으로 예상된다. 전력 효율이 높아지면 AI 가속기에 값비싸고 무거운 HBM 대신 저렴하고 가벼운 저전력(LP) D램을 사용해도 거대언어모델(LLM) 추론이 가능해지기 때문이다. , ‘HBM 없는 AI 가속기시대를 삼성전자가 여는 것이다.

삼성전자가 인공지능(AI) 가속기 '마하1'을 올해 연말부터 본격 양산에 들어갈 예정으로 AI 시장에 변동을 가져올 것으로 기대를 모으고 있다.
삼성전자가 인공지능(AI) 가속기 '마하1'을 올해 연말부터 본격 양산에 들어갈 예정으로 AI 시장에 변동을 가져올 것으로 기대를 모으고 있다.

경계현 사장은 “‘마하-1’은 데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높인 제품이라고 소개하며 마하-1 인퍼런스칩은 혁신의 시작이라고 강조하기도 했다.

삼성전자와 네이버는 연내 개발 및 양산을 확정한 뒤, 연말께 네이버 데이터센터인 세종등에 납품할 예정이다. 납품 규모는 150,000~200,000개로 알려졌다.

가격 경쟁력도 유리하다. 전 세계적으로 품귀 현상을 빚고 있는 엔비디아의 AI 가속기 H100의 가격은 40,00050,000달러인 반면, 마하-110분의 1 수준인 4,0005,000달러가 될 것으로 보인다. 예상대로 수주가 진행되면 총 1조원 규모의 매출이 발생한다.

다만 마하1이 엔디비아의 AI 가속기를 완전히 대체할 수 있는 것은 아니다. 여전히 AI 학습에는 엔디비아의 AI 가속기가 최선이고, 최근 엔비디아가 공개한 최신 AI블랙웰괴물칩이라는 별명이 붙을 정도로 성능이 향상되는 등 엔비디아의 시장 지배력은 확대일로를 걷고 있다. 기존 빅테크들도 AI 가속기의 구동 안정성을 따지면 엔비디아와의 협업을 지속할 가능성이 높다는 관측도 나오고 있다.

 

 

 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.