美, 이란전에 표적식별도구 투입 인류 역사상 최초 AI 참전 전쟁 개발자의 윤리적 결기 희미해져 인간 결정권 어디까지 내줄 건가
2024년 3월 4일, 오렌지색 구글 티셔츠를 입은 한 청년이 뉴욕의 콘퍼런스장에 난입해 외쳤다. “집단학살, 차별, 감시를 부추기는 기술 구축을 거부한다.” 청년은 끌려 나갔고, 사흘 뒤 해고됐다. 구글 클라우드 엔지니어였다. 그가 막으려 한 것은 구글과 아마존이 이스라엘과 맺은 군사 클라우드 계약, ‘프로젝트 님버스(Project Nimbus)’였다.
구글에겐 낯설지 않은 장면이다. 이미 2018년, 미국 국방부와 체결한 ‘프로젝트 메이븐(Project Maven)’에 맞서 4000명의 직원이 들고일어난 전례가 있다. 당시 그들이 내건 구호는 구글의 창업 정신이었다. “악마는 되지 말자(Don’t be evil).” 그때는 직원들이 이겼다. 구글은 계약 갱신을 포기했다.
김동기 국가미래연구원 연구위원 전 KBS PD
이후의 상황은 허탈하다. 구글이 손을 뗀 메이븐은 팔란티어가 이어받았고, 아마존과 마이크로소프트가 가세했다. 결국 구글마저 슬그머니 대열에 합류했다. 메이븐은 이미 실전에 투입됐다. 지난 1월 미군은 베네수엘라 마두로 대통령 체포 작전에 메이븐을 활용했다. 2월 이란 작전에서도 표적 식별의 핵심 도구로 썼다. 마두로 체포까지 2시간 30분. 하메네이 작전에선 사망 확인까지 15시간이면 충분했다. 2003년 이라크전 당시 사담 후세인 생포에 9개월이 걸렸던 것과 비교하면 효율성의 극치다.
그런데 한편 섬뜩하다. 살상이 본질인 전쟁에서 이토록 매끄러운 효율을 과연 진보라 할 수 있을까. 전쟁 개시 24시간 만에 1000개의 목표물을 타격하는 기술적 성취는 인류가 마땅히 거쳐야 할 숙고의 시간을 지워버렸다. 인공지능(AI)에 질문을 던질 때마다 지나치게 빠르고 확신에 찬 답변이 튀어나오던 경험을 떠올리면 더욱 그렇다.
최근 영국 킹스칼리지 런던 연구팀이 AI에게 가상 전쟁을 치르게 했다. GPT-5.2와 클로드, 제미나이를 가상 국가의 지도자로 설정했다. 이들은 21번 중 20번, 무려 95%의 확률로 핵 버튼을 눌렀다. 공포와 고뇌, 자기 의심 같은 인간의 ‘비효율’은 우리가 괴물이 되지 않기 위한 마지막 보루다.
여기서 드러나는 건 AI가 이전 시대와는 전혀 다른 차원의 도구라는 점이다. 영화 ‘2001 스페이스 오디세이’가 은유했듯, 유인원이 휘두른 뼈다귀에서 도구의 역사, 폭력의 역사가 시작됐다. 몽둥이는 창이 됐고 칼이 됐고 고사포가 됐고 핵 버튼이 됐다. 도구는 늘 인간의 명령에 충실했다. 사과를 깎을지 사람을 찌를지는 칼을 쥔 인간의 의지에 달려 있었다.
하지만 AI는 다르다. 스스로 표적을 고르고 패턴을 분석하고 판단한다. 지금의 미국·이란 전쟁에는 이미 AI가 의사결정 체계 깊숙이 들어와 있다. 사실상 최초의 AI 참전 전쟁으로 평가된다. 인류 역사상 처음으로 ‘생각하는 도구’가 전장에 투입된 것이다. AI 기업들의 윤리적 결단이 뒤엉킬 수밖에 없는 상황이다.
지난 2월 뉴델리 AI 정상회의. 하필 오픈AI의 샘 올트먼과 앤트로픽의 다리오 아모데이가 나란히 서게 된 어색한 상황이 벌어졌다. 모두가 화합의 손을 맞잡을 때, 두 사람은 각자 뻘쭘해진 주먹을 허공에 뻗었다. 앤트로픽은 오픈AI의 상업주의 노선에 반기를 들고 떠난 연구자들이 세운 회사다.
두 주먹 사이의 간극은 곧 현실로 이어졌다. 미 국방부는 이란 공습 직전, 메이븐의 두뇌 격인 모델 클로드를 제한 없이 개방하라고 앤트로픽을 압박했다. 앤트로픽이 끝내 거부한 것은 단 두 가지였다. 완전 자율 살상 무기와 대규모 국내 감시. “우리는 양심상 미 국방부의 요구에 응할 수 없다.” 아모데이의 답이다.
트럼프의 격노는 예상된 수순이었다. 앤트로픽은 연방 정부의 핵심 파트너에서 한순간에 공급망 위험 기업으로 내몰렸다. 그리고 다시 샘 올트먼이 등장한다. 앤트로픽이 축출된 직후, 기다렸다는 듯 미군과 전격 계약을 체결한 오픈AI의 행보는 거센 역풍을 불러왔다. 현재 온라인에서는 ‘큇GPT(QuitGPT)’ 운동이 번지고 있다.
‘악마는 되지 말자’며 메이븐을 막아섰던 4000 구글인의 결기는 희미해졌다. 일자리를 잃으면서까지 님버스를 저지하려 했던 청년의 외침도 사라졌다. 그 사이 AI는 누군가의 생사를 알고리즘으로 계산하는 단계에 이르렀다. 이 거대한 문제를 한 엔지니어의 용기나 기업의 일시적 양심에만 맡겨둘 수는 없다. 기계의 계산에 우리 영혼의 결정권을 어디까지 내어줄 것인가.
“대서양 노예무역이 아프리카인을 향한 증오에서 비롯되지 않았던 것처럼, 현대의 동물산업도 악의에서 출발한 것이 아니다. 이번에도 그 연료는 무관심이다.” 유발 하라리의 말이다. 하라리는 이 문장을 공장식 축산과 잔인한 도축의 현실을 향해 썼지만, 그 함의는 오늘날 AI 산업에도 그대로 적용된다. 문제는 악의가 아니라 사유의 부재, 책임의 유예에 있다.
한나 아렌트의 ‘악의 평범성(Banality of Evil)’은 아우슈비츠에서 멈추지 않는다. 사유의 부재가 초래하는 비극과 위험은 식탁 위의 달걀을 지나, 우리 손안의 스마트폰 AI 도구에도 스며있다. 역사가 증명하듯 기술의 진보를 멈출 수는 없다. 다만 우리가 할 수 있는 것은 지금 무슨 일이 벌어지고 있는지 아는 것, 그리고 그 방향에 영향을 미치는 것이다. 기술의 좌표는 원래 선(善)이었다. 자꾸만 경로를 이탈하는 건 우리다.