뉴스 바로가기

기사 상세

IT·과학

“난 달라질거야” 네이버의 작심…인텔 손잡고 노리는 건 ‘이것’

김민주 기자
입력 : 
2024-04-15 15:53:34

언어변경

글자크기 설정

‘80% 독점’ 엔비디아에 비용·물량 초비상
네이버·인텔, 자체 생태계 구축해 ‘AI 자립’
삼성과 ‘추론형’ 개발, 경량화·가격 차별화
ㅇ
‘인텔 비전 2024’ 행사에서 팻 겔싱어 CEO와 네이버클라우드 하정우 AI 이노베이션 센터장이 양사 협력사항에 관한 대담을 나누고 있다. [사진 출처 = 네이버]

네이버가 ‘인공지능(AI) 반도체’ 시장 석권 경쟁에 뛰어들었다.

미국 반도체 기업 인텔, 삼성전자 등 국내외 유수 기업들과 연합해 효과적으로 AI 산업 주도권을 확보하고, 포털기업에서 나아가 AI 강자로 정체성을 확대하겠단 복안이다.

15일 업계에 따르면, 네이버와 인텔은 자체 AI반도체 소프트웨어 생태계 구축에 나섰다. 이를 위해 양사는 ‘AI 공동연구센터’를 설립한다. 여기에는 카이스트를 중심으로 서울대학교, 포스텍을 포함한 국내 20여개 연구실 및 스타트업들이 참여한다.

이번 네이버와 인텔의 동맹은 양사의 이해관계가 맞아 떨어져 성사됐다.

인텔은 자체 AI 생태계를 구축함으로써, ‘탈(脫) 엔비디아’를 실현하겠단 구상이다. 미국 반도체 기업 엔비디아의 독주로 부담이 커진 AI 사업 비용을 절감하고, 위협받고 있는 지속가능 경쟁력을 되찾겠단 의도다.

김명주 서울여대 정보보호학과 교수는 “인텔 입장에선 고객 확보가 필요한데, 전 세계에서 유일무이하게 국가적 차원에서 밀어주고 있는 네이버가 전략적 파트너로서 매력적으로 판단됐을 것”이라고 말했다.

네이버는 인텔과 협력해 다진 AI 기술 경쟁력을 기반으로, 자사 초거대 AI ‘하이퍼클로바X’ 등을 보다 합리적인 비용에 고도화할 계획이다. 더 나아가 미래고부가가치 AI 신사업을 발굴·육성한다. 기존 주력 사업이었던 인터넷검색, 커머스(네이버스토어), 핀테크(네이버페이), 콘텐츠(웹툰), 클라우드 등에도 자체 AI 기술력을 접목시켜 본업 경쟁력도 공고히 할 방침이다.

김유원 네이버클라우드 대표는 “네이버클라우드처럼 초거대언어모델(LLM)을 처음부터 개발해 운영하고 있는 기업은 전 세계적으로 많지 않으며, 더 나아가 고비용 LLM을 효율적으로 운용하기 위한 최적화 기술과 솔루션까지 제안할 수 있는 기업은 미국과 중국의 빅테크를 제외하면 네이버클라우드가 거의 유일하다”고 양사 협력의 배경을 설명했다.

앞서 네이버는 지난해 비용문제로, 기존 AI 모델을 구동하는데 쓰던 엔비디아의 그래픽처리장치(GPU)를 인텔의 중앙처리장치(CPU)로 일부 전환한 바 있다. 양사가 이미 협업 체계를 구축하고, 상호 사업 이해도가 높은 만큼 시너지가 기대된다.

동시에 네이버는 삼성전자와도 추론형 AI반도체 ‘마하1’ 공동개발에 착수했다.

AI반도체는 크게 학습용과 추론용으로 나뉜다. 방대한 데이터 학습을 목적으로 하는 학습용과 달리, 추론용 AI반도체는 이미 학습된 데이터를 기반으로 AI서비스를 구현하기 때문에 경량화에 특화됐다. 마하1은 기존 AI반도체 대비 데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높이는 것을 목표로 한다.

추론형인 만큼, 가격 경쟁력도 갖출 것으로 기대된다. 마하1의 가격은 엔비디아 H100의 10분의 1 수준인 500만원 수준으로 책정될 것으로 추정된다.

탈(脫) 엔비디아 연합군은 왜 탄생했나?
D
엔비디아 로고 [사진 출처 = 연합뉴스]

최근 네이버, 인텔, 삼성전자를 비롯한 전 세계 AI기업과 AI서비스를 제공하는 업체들에겐 AI반도체의 높은 비용과 재고 한계가 최대 난제로 떠올랐다.

AI모델을 구축하기 위해선 AI반도체와 AI개발플랫폼이 필요한데, 이를 모두 엔비디아가 독점하고 있는 탓이다. AI서비스란 음식을 만들기 위한 재료(AI반도체)와 레시피(AI개발플랫폼)를 모두 엔비디아에 의존하고 있는 격이다.

현재 엔비디아는 AI반도체 전체 시장의 80% 이상을 독점하고 있다. AI반도체는 AI 서비스 구현에 필요한 대규모 연산을 초고속·저전력으로 실행하는 비메모리 반도체다. AI 서비스가 고도화될수록 AI반도체가 많이 필요한 구조다. 엔비디아의 대표 AI반도체는 ‘H100’로, 개당 가격은 4000만~5000만원에 달한다. 관련 업계에선 연내 H100의 개당 가격이 8000만원까지 오를 것으로 내다보고 있다.

엔비디아의 AI개발플랫폼 ‘쿠다(CUDA)’는 엔비디아의 GPU에 특화된 개발 플랫폼으로, 엔비디아 반도체에서만 작동한다. 아직까지 쿠다의 성능을 뛰어넘는 AI개발플랫폼이 없어, AI 개발자들은 프로그래밍 시 쿠다 사용이 필수다. 기업들이 엔비디아의 반도체 값이 계속 올라도 다른 AI반도체로 대체하기 어려운 이유다.

일례로, 가장 대중적인 대화 전문 AI챗봇으로 알려진 ‘챗GPT’의 생성형 AI도 쿠다로 훈련시켰다. 사용된 AI반도체 역시 엔비디아 제품이다. 챗GPT 3.5버전은 H100 1만5000장으로 만들어졌다.

생활, 의료 등 전 산업에 AI가 적용되는 ‘AI 대전환 시대’가 도래함에 따라, AI반도체 수요는 지속 늘어날 전망이다. 인텔, 네이버, 삼성전자를 비롯한 글로벌 빅테크 기업들이 엔비디아의 영향력에서 벗어난 자체 AI 생태계 구축에 사활을 건 배경이다.

가우디, ‘AI 자립’ 열쇠될까
ㅇ
네이버클라우드와 인텔이 AI칩 SW 생태계 구축을 위한 공동연구 업무협약을 체결했다. (왼쪽부터)이동수 네이버클라우드 하이퍼스케일 AI 이피션시(Efficiency) 이사, 하정우 네이버클라우드 AI 이노베이션 센터장, 팻 겔싱어(Pat Gelsinger) 인텔 CEO, 저스틴 호타드(Justin Hotard) 인텔 수석부사장·데이터센터 및 AI그룹 총괄. [사진 출처 = 네이버]

펫 겔시어 인텔 최고경영자(CEO)는 지난 9일(현지시각) 미국 애리조나에서 열린 ‘인텔 비전 2024’ 행사에서 “인텔의 AI 가속기 가우디는 엔비디아 AI반도체 H100의 유일한 대안”이라고 강조했다.

AI 가속기는 AI 모델을 학습시키고 추론하는 데 사용되는 복잡한 수학적 연산을 더 빠르고 효율적으로 처리할 수 있도록 도와주는 장치다.

인텔은 이번 행사에서 선보인 새로운 AI 가속기 ‘가우디3’가 H100 그래픽처리장치(GPU)보다 전력 효율이 두 배 이상 높고 AI 모델을 1.5배 더 빠르게 실행할 수 있다고 설명했다.

가우디는 네이버와 인텔의 탈 엔비디아를 위한 핵심 무기로 쓰일 전망이다.

네이버의 AI 사업을 담당하는 핵심 계열사 ‘네이버클라우드’는 ‘가우디 2’의 테스트를 진행해, 자체 LLM을 구축할 계획이다. 해당 연구를 주도해 나가면서 하이퍼클로바X 중심의 AI 생태계를 확장해 나갈 방침이다. 지금은 가우디 2로만 하이퍼클로바X를 테스트하지만, 향후 가우디 3가 시장에 안착함에 따라, 가우디3도 적용할 것으로 보인다.

인텔은 가우디의 성능을 입증하고 소프트웨어, 하드웨어를 포함한 가우디 기반 AI 생태계를 구축한다.

김명주 서울여대 정보보호학과 교수는 “이번 네이버의 인텔, 삼성전자와의 협업은 엔비디아 독주체제를 단기간 무너뜨릴 정도의 파급력 보단 ‘대안’의 성격이 더 크지만, 각 사의 뛰어난 역량을 합쳐 AI반도체 개발을 고도화한단 점에서 매우 의미 있는 전략적 제휴라고 생각한다”라고 말했다.

이 기사가 마음에 들었다면, 좋아요를 눌러주세요.