불과 몇 년 전까지만 해도 인공지능(AI)은 ‘아는 사람만 아는 기술’이었다. 그러다 지난 몇 년간 AI는 검색, 문서작업, 번역, 분석 같은 사람의 일을 순식간에 줄여주며, 인간을 대체할지 모른다는 두려움까지 안겼다. 이 놀라움은 일상에서 전장으로 옮겨갔다. AI는 이스라엘의 가자지구 공습, 미국의 베네수엘라 대통령 체포 작전과 이란 공습에 깊숙이 관여했다. 인간의 삶을 편리하게 하려던 기술이 인간을 해치는 정확도와 속도를 높이는 데까지 동원되면서 AI 사용 범위와 윤리에 대한 불편한 질문이 고개를 들고 있다.
◆AI가 표적 추천…‘킬 체인’이 빨라졌다
AI의 역할은 표적 추천에만 머무르지 않았다. 영국 가디언은 미군이 AI를 정보 분석, 표적 선택 보조, 전장 시뮬레이션에도 썼다고 전했다. 전장을 ‘보는 도구’를 넘어 다음을 ‘상상하고 비교하는 도구’로 AI가 활용됐다.
이런 변화는 이스라엘의 가자지구 공습에서 이미 확인됐다. 가디언과 독립매체 +972는 이스라엘군이 개발한 ‘라벤더’시스템이 대규모 인구 데이터를 처리해 가자 남성 중 하마스와 관련된 인물 표적 후보를 대량 산출했다고 보도했다. 연관 정도를 어떻게 설정하느냐에 따라 후보군 숫자도 달라지는데, 최대 3만7000명 규모의 후보가 언급된 것으로 알려졌다. 제보자는 “하나의 표적당 20초를 썼고 매일 수십명을 작업했다”며 “인간은 승인하는 절차 외엔 거의 관여하지 않았다. 표적이 남자인지 정도만 확인하는 데 그쳤고 시간이 많이 절약됐다”고 밝혔다.
이스라엘군의 또 다른 시스템 ‘가스펠’은 사람이 아닌 건물과 시설 표적을 추출해 추천한 것으로 알려졌다. 다만, 이스라엘은 “단지 참조용”이라며 AI로 표적을 예측한 것을 부인했다.
◆AI 군사적 활용 어디까지
AI 무기화 논쟁은 전쟁에서 AI를 어디까지 활용할 수 있느냐는 현실적인 질문을 던진다. 지난 1월 미국의 니콜라스 마두로 베네수엘라 대통령 체포 작전에 앤트로픽의 클로드가 쓰였다는 보도가 나왔다. 워싱턴포스트에 따르면 미군은 팔란티어가 구축한 ‘메이븐 스마트 시스템’을 사용했다. 방대한 기밀 데이터, 위성, 감시 정보를 모아 분석하는 프로그램인데, 그 안에 클로드가 내장돼 표적 후보를 제안하고 표적을 추출한 뒤 우선순위를 매기는 데 쓰였다.
앤트로픽이 이를 문제 삼자 미 국방부는 오히려 군이 클로드를 ‘모든 합법적 목적’에 쓸 수 있어야 한다고 요구했다. 앤트로픽은 이 계약이 미국인 대규모 국내 감시, 인간의 최종결정 없는 완전 자율무기로 번질 수 있다며 계약서에 ‘금지’ 조항을 명시해 달라고 맞섰다. 협상이 결렬되자 국방부는 앤트로픽을 ‘공급망 위험’ 기업으로 지정했고 정부 차원의 클로드 사용 중단 지시가 내려졌다.
그런데 그 후, 이번 이란 전쟁에도 클로드가 사용됐다는 보도가 여러 매체에서 나왔다. 가디언은 이에 대해 AI 의존성 문제를 짚으며 “강력한 AI 도구를 군 임무에서 갑자기 빼는 일이 왜 어려운지를 보여주는 사례”라고 설명했다. 이미 AI가 업무에 깊고 복잡하게 얽혀 있으면 실제 현장에서 당장 사용을 중단할 수 없다는 것이다.
로이터는 메이븐 안의 여러 업무 흐름이 클로드 코드로 구축돼 있어, 이를 제외하려면 팔란티어가 대대적인 재구축 작업을 해야 한다고 지적했다.
앤트로픽과 팔란티어는 국방부와의 협력을 두고 충돌했다. 로이터통신은 팔란티어의 메이븐 관련 국방·안보기관 계약 잠재가치가 10억달러 이상으로 추산된다며 앤트로픽을 즉시 제외하라는 요구는 현실적으로 큰 부담이 될 수 있다고 전했다.
알렉스 카프 팔란티어 최고경영자(CEO)는 “실리콘밸리가 군을 곤경에 빠뜨리는 태도를 보이면 기술이 국유화될 수 있다”면서 앤트로픽에 간접 경고를 했다.
이 논쟁은 일반 사용자들에게도 영향을 미쳤다. 소비자들은 토론에 그치지 않고 어떤 AI 앱을 선택하는지로 자신의 입장을 드러내기 시작했다.
포브스에 따르면 앱스토어에서 클로드 앱 다운로드는 이달 2일 기준 전주 대비 55% 늘었다. 클로드의 입장을 지지하는 소비자들이 대거 유입된 것으로 해석할 수 있다. 오픈AI는 정반대였다. 국방부와의 계약 소식 직후 미국에서 챗GPT 앱 삭제는 전일 대비 295% 급증했다.
AI 기업 내부에서도 움직임이 일어났다. 구글 직원 300여명과 오픈AI 직원 60여명이 “대규모 감시와 완전 자율무기의 레드라인을 함께 지키자”는 공개서한에 서명한 것이다. 대내외적 반발 속에 오픈AI는 국방부와의 계약 문구를 보완하겠다고 밝혔다.
가디언은 이런 분위기를 전하면서 AI 기업 CEO들을 핵기술 개발을 이끌었지만 핵무기 확산에 반대했던 줄리어스 로버트 오펜하이머에 비유했다. 가디언은 “(그들은) 자신들이 만든 기술이 국가의 힘이 되는 순간 자부심과 두려움이 함께 커진다는 정서가 존재한다”고 짚었다.
◆빨라서 위험한 AI 전쟁…책임은 누가?
AI가 전장 표적 선정 과정을 ‘생산라인’처럼 재구성하면서 전쟁은 이제 처리량과 속도의 경쟁이 됐다. 세계 AI 기술을 주도하는 미국과 이스라엘이 전쟁 초기 짧은 시간 이란과 레바논(헤즈볼라)을 타격한 위치와 횟수, 그리고 희생자 숫자를 보면 AI는 전쟁 목표에 최적화된 도구로도 볼 수 있다.
그러나 AI 결과물의 정확도는 100%가 아니다. 전문가들은 특히 실제 전쟁에서 AI의 빠른 속도가 가장 위험하다고 경고한다. 국제로봇무장통제위원회(ICRAC) 공동 창립자 피터 아사로는 5일 AFP와 인터뷰에서 AI가 표적 목록을 인간보다 훨씬 빠르게 만들 수 있다는 점을 지적하며 “핵심 쟁점은 인간이 그 목록을 실제로 얼마나 검토하고 합법성과 군사적 가치를 확인하느냐”라고 짚었다.
사라 크렙스 코넬대 정치학과 교수는 “군은 AI를 신호 대 잡음 문제 해결과 패턴 인식에 유용하게 쓰려 하지만, 특히 ‘사람’을 대상으로 하는 상황에선 오판 가능성이 커져 더 조심스러운 검증이 필요하다”고 지적했다.
국제사회의 우려도 커지고 있다. 안토니우 구테흐스 유엔 사무총장은 “AI는 통제불능한 괴물이 될 수 있다”며 “인간의 개입 없이 생사를 결정할 권한을 가진 기계는 정치적으로 용납할 수 없고, 도덕적으로 혐오스럽고, 국제법으로 금지돼야 한다”는 입장을 여러 차례 밝혔다.
이란 전쟁 초기 미군의 토마호크 미사일로 추정되는 미사일이 이란의 여자초등학교에 떨어져 어린 학생들과 교직원 등 최소 175명이 사망했다. 과거 해군기지였던 해당 학교의 위치 정보가 최신화되지 않아 표적 설정에 오류가 있었던 것으로 추정되고 있다.
이 과정에서 AI는 어떤 역할을 했고, 인간은 어느 정도까지 관여했으며 그 책임은 누구에게 있는지에 대한 질문이 제기된다. AI가 전쟁의 속도를 높일수록 인간의 최종 판단과 책임의 경계를 보다 명확히 해야 한다는 문제의식도 함께 커지고 있다.