[사이언스프리즘] 메모리가 보는 인공지능

막대한 데이터 작업하는 AI
읽고 쓰는 메모리도 첨단화
SW 발달 따른 미래시장 예측
제2 HBM급 변화 야기 촉각

2024년은 메모리 회사들의 명암이 크게 갈린 해였다. 챗GPT로 인공지능 열풍이 시작되자, HBM이라는 인공지능용 메모리를 앞세워 SK하이닉스가 약진하기 시작했다. 영업이익 기준으로 SK하이닉스가 삼성전자를 앞지를 것이라는 전망이 나올 정도로 큰 변화가 일어나고 있다. 그런데, 정확히 메모리에 인공지능이란 무엇이기에 30년간 변치 않던 순위가 흔들릴 정도로 충격이 일어나는 것일까?

과거 19세기, 컴퓨터 이론학자들은 컴퓨터가 일하는 부분인 연산기와 해야 할 일을 저장하는 부분인 저장소 두 부품으로 구성되어야 한다고 생각했다. 복잡한 모든 작업은 연산기가 수행하고, 저장소는 오로지 데이터 쓰기와 읽기 두 작업만을 한다는 구체적 역할을 정의하면, 개별 부품을 따로 개발하기 더욱 쉬워질 것이기 때문이다. 전자의 예가 노트북 등에 탑재되는 CPU, 인공지능에 사용되는 GPU이고 후자의 예가 대한민국의 주력 수출품목 중 하나인 메모리 반도체이다.

정인성 작가

재미있는 것은, 컴퓨터 구성요소 중 메모리의 역할은 40년 가까이 거의 바뀌지 않았다는 것이다. 그때부터 지금까지 메모리는 크게 보면 오로지 읽고, 쓰기에만 집중하고 있을 뿐이다. 반면 연산기는 CPU, GPU, NPU 등 새로운 종류의 칩도 등장하고, 기존 칩의 기능도 계속 확대되어왔다. 대체 메모리 같은 단순한 부품이 왜 인공지능 혁명의 핵심 부품으로 주목받는 것일까?



핵심은 읽고, 쓰기라는 동작에는 반응 속도와 최대 전송량이라는 특성이 존재한단 것이다. 현재 ‘얼마나 많은 양을 동시에’ 읽고 쓰기 가능한지가 메모리 회사들의 명암을 가르고 있다. 지난 40여년간, 연산기는 메모리를 퀵서비스처럼 사용하였다. 1회 접근 시, 적은 양의 데이터만 읽고 썼지만 대신 처리 결과는 빠르게 반영되어야 했다. 그냥 당시 구동해야 하는 프로그램의 특성이 그랬다. 하지만 인공지능 시대가 되자, 연산기들은 메모리를 덤프트럭처럼 써야 했다. 메모리 입장에선 읽고 쓰기라는 큰 그림은 그대로였다. 하지만 동일 시간에 기존 대비 수십~수백 배의 데이터를 가져와야 했다. 대신 데이터 요청 뒤 첫 데이터가 도착하는 시간은 조금 느려도 상관없었다. 인공지능이란 프로그램이 그런 것을 요구하니 다른 특성의 메모리가 필요했던 것이다.

이런 변화는 퀵서비스 회사에 이제부터 덤프트럭도 운용해 달라고 요구하는 것과 같다. 덤프트럭을 운용하기 위해서는 새로운 운전기사를 뽑고, 정비창을 개선하고, 화물기지 구조를 바꾸는 등 큰 변화가 수반된다. 메모리도 마찬가지이다. 읽고 쓰기라는 큰 임무는 동일하더라도, 특정 성능을 수십 배 높이는 것은 기존과는 매우 다른 기술이 필요하다. 원가가 높아지는 것은 당연하고, 해당 원가를 구성할 신기술들을 적재적소에 배치한 뒤, 오랫동안 연구개발해야 한다. 메모리 회사들은 칩의 크기를 키워 입출력 개수를 늘리고, 칩을 위로 쌓아 올림으로써 용량과 최대 탑재 가능한 칩의 개수를 늘렸다. 이것이 HBM이다.

인공지능과 HBM의 성공은 메모리 반도체 회사가 소프트웨어를 어떻게 이해해야 하는지 잘 보여주는 예라 할 수 있다. 메모리 회사들이 구글, 마이크로소프트만큼 소프트웨어를 잘해야 할 필요는 없다. 하지만 정보기술(IT) 거인들이 새로운 프로그램을 만들었을 때, 메모리의 입장에서 읽기, 쓰기 요청이 어떻게 바뀌게 될지 예측하는 능력은 있어야 한다. 회사들은 이를 통해 미래 시장에 필요할 요소기술을 미리 연구개발할 수 있게 된다.

메모리는 이미 6세대 동안 10나노급에 머물러 있을 정도로 미세화의 어려움을 겪고 있다. 이젠 제조되는 소자 하나하나가 그 어느 때보다도 비싸고 소중하다. 그렇기에 각 소자가 미래에 일할 곳을 미리 찾아, 미래 일터의 특성에 맞는 소자를 개발해야 한다. 그리고 이를 이해하기 위해서는 메모리의 최종 사용자인 소프트웨어를 이해해야 한다. 혹시 아는가, 전혀 다른 프로그램이 나타나서 제2의 HBM급 변화를 일으켜 시장을 뒤흔들지.

 

정인성 작가