인공지능(AI)의 메모리 사용량을 줄여주는 구글의 신기술 개발에 반도체 업계가 촉각을 기울이고 있다.
일각에서는 메모리 수요가 감소할 수 있다고 우려하지만, 전문가들은 현재의 메모리 수요 구조를 당장 바꾸는 것을 불가능하며 중장기적으로 AI 인프라 혁신을 촉진할 수 있는 기폭제가 될 수 있다고 보고 있다.
27일 업계에 따르면, 구글리서치가 지난 25일(현지시간) 논문을 통해 발표한 '터보퀀트'는 AI 추론 과정에서 발생하는 키-값 캐시(KV 캐시)를 효율적으로 압축시켜 정확도 저하 없이 AI의 메모리 사용량을 6분의 1로 줄인 기술이다.
메모리 병목 현상을 완화해 시장 전체 규모를 키워 AI 인프라 투자를 더욱 가속하는 촉진제로 작용할 수 있다는 설명이다.
숀 김 모건스탠리 분석가는 "모델이 성능 저하 없이 메모리 요구량을 낮춰 실행할 수 있다면 비용이 크게 감소해 AI 도입의 수익성이 높아질 것"이라며 "비용이 낮아지면 제품 채택 수요도 증가해 장기적으로 메모리 제조사에도 이익이 될 것"이라고 내다봤다.
영국 경제학자 윌리엄 제번스가 주창한 대로 기술의 효율성이 높아질수록 제품의 채택과 수요가 오히려 늘어난다는 '제번스의 역설'이 적용될 것이란 전망이다.
메모리 업체들의 수익성을 높이고 있는 고대역폭메모리(HBM) 수요를 대체하는 기술로는 역부족일 것이라는 분석도 나온다.
김정호 KAIST 교수는 압축된 데이터를 풀어쓰는 과정에서 시간 지연이 불가피하다는 점을 지적하며 "고대역폭메모리(HBM)처럼 초고속 접근이 필요한 영역에는 적용이 쉽지 않을 것"이라고 설명했다.
그러면서 "당장 메모리 수요 구조 자체가 뒤집힐 것으로 보기는 어렵다"고 강조했다.
다만 "속도보다 용량과 비용이 중요한 낸드플래시 등 저장장치 영역에서는 이런 압축 기술이 의미를 가질 수 있다"고 덧붙였다.
아직 논문 수준의 상용화 전 기술이고, 향후 기술 파급력도 지켜봐야 한다는 목소리도 나온다.
김 교수는 "작년 딥시크(DeepSeek) 등장 때도 시장이 크게 반응했지만, 지금은 이를 언급하는 경우가 많지 않다"며 "터보퀀트 역시 대세를 완전히 바꿀 수준까지 갈지는 지켜봐야 한다"고 말했다.
<연합>연합>