메뉴보기메뉴 보기 검색

삼성·SK 주가 끌어내린 구글 ‘터보 퀀트’… 개미들, ‘손절’이냐 ‘추매’냐

입력 :
폰트 크게 폰트 작게
터보퀀트, AI 메모리 사용량 획기적으로 줄이는 기술
메모리 반도체 수요 줄 것이란 공포 시장 덮쳐
장기적으론 반도체 수요 폭증 시킬 것이란 긍정 전망도

인공지능(AI)발 열풍에 힘입어 승승장구하던 삼성전자와 SK하이닉스가 때 아닌 위기설에 시달린다. 위기설의 진앙지는 구글이 발표한 한 논문이다. 논문은 AI 소프트웨어의 메모리 사용량을 줄여주는 기술 ‘터보 퀀트(Turbo Quant)’를 다뤘다. 이 기술이 상용화되면, 글로벌 빅테크의 메모리 반도체 수요가 감소하고, 덩달아 삼성전자와 SK하이닉스 메모리 매출도 하락할 것이란 공포가 시장을 덮쳤다. 다만 전문가들은 터보 퀀트가 메모리 시장엔 큰 악재로 작용하지 않을 것이라 전망했다. 장기적으로는 AI 시장 성장을 가속화시켜 메모리 수요를 더욱 촉발 시킬 것이란 분석도 제기됐다.

 

구글은 24일(현지시간) ‘터보퀀트: 극단적인 압축으로 AI 효율성을 재정의’란 보고서를 발표했다. 구글은 이 보고서를 통해 차세대 기술 ‘터보퀀트’를 공개했다. 로이터연합뉴스
구글은 24일(현지시간) ‘터보퀀트: 극단적인 압축으로 AI 효율성을 재정의’란 보고서를 발표했다. 구글은 이 보고서를 통해 차세대 기술 ‘터보퀀트’를 공개했다. 로이터연합뉴스

구글은 24일(현지시간) ‘터보퀀트: 극단적인 압축으로 AI 효율성을 재정의’란 보고서를 발표했다. 구글은 이 보고서를 통해 차세대 기술 ‘터보퀀트’를 공개했다.

 

터보퀀트는 AI 프로그램이 겪고 있는 고질적인 메모리 병목 현상을 해소할 압축 기술이다. AI의 메모리 사용량을 기존 대비 획기적인 수준으로 줄여준다.

 

원리는 다음과 같다. AI 모델은 대화를 이어가면서 앞서 나눈 내용을 기억해야 한다. 이를 위해 쓰이는 것이 '키-밸류(KV) 캐시'다. 쉽게 말하면 AI의 단기 메모장이다. 문제는 이 메모장의 용량이다. 대화가 길어지고 처리해야 할 정보가 방대해질수록 메모장은 금세 꽉 차버린다. 속도는 느려지고 비용은 치솟는다. 구글을 포함한 AI 빅테크 기업 상당수가 KV 캐시 메모리 사용량을 줄이려 했지만, 아직까지 제대로 문제를 해결하지 못했다.

 

터보퀀트는 이 메모리 사용량을 기존 대비 최소 6분의 1 수준으로 줄인다. 보통 사용량이 줄면 AI 성능도 함께 줄어들지만, 터보퀀트를 적용하면 이 과정에서 AI의 성능 저하가 사실상 없다. 구글은 오픈소스 대형언어모델(LLM)인 '젬마'와 '미스트랄'을 활용해 장문 이해, 질의응답, 코드 생성, 요약 등 다양한 벤치마크 테스트를 진행했고, 모든 항목에서 이 같은 결과를 확인했다.

 

AI 메모리에 쓰이는 삼성전자 HBM4 사진. 삼성전자 제공
AI 메모리에 쓰이는 삼성전자 HBM4 사진. 삼성전자 제공

터보퀀트의 핵심 기술은 두 단계로 나뉜다. 첫 번째는 '폴라퀀트(극좌표양자화)'라는 기법이다. 폴라퀀트는 데이터를 저장하는 방식 자체를 바꾼다. 기존에는 데이터를 X·Y·Z 좌표처럼 각 축의 거리로 표현했다. 폴라퀀트는 이를 극좌표계로 전환한다. “동쪽으로 3블록, 북쪽으로 4블록”이라고 말하는 대신 “37도 방향으로 5블록”이라고 압축하는 방식이다. 이렇게 하면 데이터를 정규화하는 번거로운 과정이 생략되고, 그에 따른 추가 메모리 부담도 사라진다.

 

두 번째는 'QJL(양자화 존슨-린덴스트라우스 변환)'이다. 폴라퀀트를 거치고 난 뒤 남은 미세한 오차를 잡아내는 역할을 한다. 고차원 데이터를 수학적으로 변환해 핵심 관계만 보존하면서 각 수치를 단순히 '+1' 또는 '-1'의 부호로만 표현한다. 데이터 1개를 단 1비트(bit)로 처리하면서도 추가 메모리를 전혀 쓰지 않는다. 이 두 단계를 결합한 터보퀀트는 기존 대비 훨씬 적은 데이터(3~4비트)만으로 핵심 정보를 정확히 표현해낸다.

 

속도 향상도 눈에 띈다. 구글은 엔비디아의 최신 AI 가속기 ‘H100’ 환경에서 측정한 결과, 4비트 터보퀀트가 기존 32비트 방식 대비 연산 처리 속도를 최대 8배 끌어올렸다고 밝혔다. 별도의 추가 학습이나 파인튜닝(특정 목적에 맞게 모델을 다시 훈련하는 것) 없이도 이 성능을 발휘한다는 점도 주목할 만하다. 실제 현장에 곧바로 투입할 수 있다는 뜻이다.

 

활용 범위도 KV 캐시에 그치지 않는다. 구글은 ‘벡터 검색’ 분야에서도 터보퀀트의 잠재력이 크다고 강조했다. 벡터 검색이란 단순 키워드 매칭이 아닌, 문장의 의미와 맥락을 이해해 가장 유사한 정보를 찾아내는 기술이다. 최신 검색 엔진과 AI 서비스 대부분이 이 기술에 의존하고 있다. 구글은 터보퀀트가 수십억 개의 벡터 데이터를 다루는 대규모 검색 인프라에서도 메모리를 대폭 줄이고 처리 속도를 높일 수 있다고 설명했다.

 

터보퀀트는 AI 프로그램이 겪고 있는 고질적인 메모리 병목 현상을 해소할 압축 기술이다. AI의 메모리 사용량을 기존 대비 획기적인 수준으로 줄여준다. 로이터연합뉴스
터보퀀트는 AI 프로그램이 겪고 있는 고질적인 메모리 병목 현상을 해소할 압축 기술이다. AI의 메모리 사용량을 기존 대비 획기적인 수준으로 줄여준다. 로이터연합뉴스

구글이 보고서를 발표한 이후, 터보퀀트 기술이 상용화되면 메모리 수요가 급감해 한국 반도체 업계가 타격을 받을 것이란 공포가 시장을 덮쳤다. 질주하던 두 회사의 주가가 26일 주춤했던 것도 터보퀀트의 영향이 컸다.

 

다만, 분석가들은 터보퀀트가 반도체 수요엔 큰 영향을 미치지 않을 것이라 내다봤다. 숀 김 모건스탠리 분석가는 “모델이 성능 저하 없이 메모리 요구량을 낮춰 실행할 수 있다면 비용이 크게 감소해 AI 도입의 수익성이 높아질 것”이라며 “비용이 낮아지면 제품 채택 수요도 증가해 장기적으로 메모리 제조사에도 이익이 될 것”이라고 내다봤다.

 

영국 경제학자 윌리엄 제번스가 주창한 대로 기술의 효율성이 높아질수록 제품의 채택과 수요가 오히려 늘어난다는 ‘제번스의 역설’이 적용될 것이란 전망이다. 오터스 어드바이저스의 앤드루 잭슨 분석가는 “극심한 (메모리) 공급 제약 상황을 고려할 때 구글의 이번 기술이 수요에 미치는 영향은 미미할 것”이라고 평가했다.