2030년 전 세계 인공지능(AI) 데이터센터가 사용하는 전력량이 세계 1위 인구 대국인 인도의 전력 소비량보다 많아질 것이라는 전망이 나왔다.
영국 반도체 설계 기업 Arm의 러네이 하스 최고경영자(CEO)는 17일(현지시간) 블룸버그통신과의 인터뷰에서 이같이 전망하며 “AI 개발 과정에서 에너지 사용량이 3배로 증가할 것으로 예상되는 이 상황을 막을 방법을 찾아야 한다”고 밝혔다. 그는 “현재 AI는 아직 초기 단계”라며 “이를 더 발전시키려면 더 많은 데이터 훈련이 필요하고, 그러다 보면 에너지 용량의 한계에 부딪히게 될 것”이라고 설명했다.
생성형 AI를 구동하는 거대언어모델(LLM)을 훈련하는 데는 막대한 전기가 소모된다. 국제에너지기구(IEA)는 AI 모델 하나를 훈련하는 데 들어가는 전력량이 일반 가정 100곳이 사용하는 연간 사용량보다 많다고 추산했다.
하스 CEO는 AI 기업들에 자사의 중앙처리장치(CPU)를 도입할 것을 제안하며 “이를 사용하면 데이터센터의 전기 사용량을 15% 이상 줄일 수 있다”고 주장했다. Arm은 AI 컴퓨팅에 사용되는 CPU를 생산하는데, 저전력 고효율이 최대 강점으로 꼽힌다.
하지만 이는 미봉책에 불과하다. ‘전기 먹는 하마’로 불리는 데이터센터가 더욱 늘어날 것으로 전망되는 가운데 전 세계적 전력난을 우려하는 목소리는 갈수록 커지고 있다.
니혼게이자이신문은 18일 미국의 기업용 소프트웨어 업체 오라클이 올해부터 10년간 80억달러(약 11조원) 이상을 투자해 일본에서 데이터센터를 증설한다고 보도했다. 오라클에 앞서 마이크로소프트(MS)와 아마존 등도 거액의 투자 사실을 알리는 등 전 세계 곳곳에서 신규 데이터센터가 우후죽순 건립되고 있다.