오픈AI의 챗봇 챗GPT 운영에 엔비디아의 그래픽처리장치(GPU) ‘A100’ 1만여개가 사용된다. GPU 수만 개가 방대한 양의 연산을 빠르게 처리하기 위해서는 고전력, 고비용이 들어갈 수밖에 없다. 결국 인공지능(AI)이 모든 산업에서 성장동력으로 빠르게 적용되기 위해선 이런 비효율적인 반도체와 전력소모를 줄이는 게 관건이다. 이런 가운데 카이스트(한국과학기술원) 연구진이 세계 최초로 초저전력·초고속의 AI 반도체 ‘상보형-트랜스포머’ 개발에 성공하면서 업계의 관심이 쏠리고 있다.
◆세계 최초 ‘상보형-트랜스포머’ 개발
과학기술정보통신부는 유회준 카이스트 인공지능 반도체 대학원 교수 연구팀과 카이스트 PIM 반도체 연구센터가 400밀리와트(㎽) 초저전력을 소모하면서 0.4초 만에 거대 언어 모델(LLM)을 처리할 수 있는 AI 반도체 ‘상보형-트랜스포머’를 세계 최초로 개발했다고 6일 밝혔다.
◆AI 반도체 시장 판도 바꾸나
지금까지 챗GPT에 들어가는 LLM은 다량의 GPU와 250W(와트)의 전력소모를 통해 구동해야 했다. 짧은 시간에 무수히 많은 연산을 해야 하는 초거대 모델 기반 생성 AI 운영엔 엄청난 수량의 고효율 반도체 칩셋이 필요했다. GPU는 애초 목적이 AI 연산이 아니었기 때문에 전력 효율과 면적, 수행시간 등에서 고비용으로 돌아왔고, 심지어 샘 올트먼 오픈AI 최고경영자(CEO)마저도 최근 “챗GPT 1회 사용에 몇 센트가 든다”고 적기도 했다.
국내 관련 업체들과 정부가 나서 AI 반도체 개발을 추진한 이유도 이런 고전력·고비용 문제에 있었다. AI 서비스가 더 확대되면 저전력 고효율 반도체의 수요가 폭발적으로 늘어날 가능성이 높기 때문이다.
상보형 트랜스포머를 사용하면 엔비디아의 GPU(A100) 대비 전력소모를 625배 줄일 수 있다. 과기정통부 관계자는 “파라미터(매개변수) 수 감소에 더해 초저전력 처리로 에너지 효율을 극대화했다는 점에서 획기적인 연구”라고 설명했다.
업계에선 이번 ‘상보형-트랜스포머’가 삼성전자의 28나노 공정을 통해 개발된 만큼 완성도를 높인 뒤 상용화에 나설 경우 새로운 AI 반도체 시장을 개척할 수 있을 것으로 보고 있다.
이번 연구 결과는 지난달 19∼23일 미국 샌프란시스코에서 열린 ‘반도체 설계 올림픽’ 국제고체회로설계학회(ISSCC)에서 발표·시연됐다. 연구팀은 향후 언어모델에 국한하지 않고 다양한 응용 분야로 연구 범위를 확장할 예정이다.
유회준 교수는 “뉴로모픽 컴퓨팅은 IBM, 인텔 같은 회사들도 구현하지 못한 기술로, 초저전력의 뉴로모픽 가속기를 갖고 거대모델을 돌린 것은 세계 최초라고 자부한다”며 “앞으로도 관련 연구를 지속할 것”이라고 말했다.