“현대판 양치기 기법” vs “혁신적 AI 복제술” [S 스토리]

인공지능 복제술 ‘딥페이크’와 기술 윤리 / 두 개의 AI ‘생성자·판별자’ 분담 / 생성자가 ‘진짜같은 가짜’ 만들면 / 판별자가 ‘가짜’의 부족한 점 보완 / 음란영상물·페이크 뉴스 악용 / 고도의 피싱 공격 땐 무방비 / 선거 앞두고 악용 우려도 커 / 악용을 근절할 기술 인류과제 / AI 기술윤리 사회적 공론화로 / 유튜브 등 판별 기술 도입해야

 

“안녕하세요, 인공지능 박영선입니다. 인공지능이 우리의 생활 속에서 어떻게 활용되고 있는지 알아볼까요.”

 

한·아세안 특별정상회의 기간이던 지난해 11월25일 부산 벡스코에는 박영선 중소벤처기업부 장관의 얼굴을 똑같이 구현해낸 ‘인공지능(AI) 박영선’이 등장해 ‘한·아세안 스타트업 엑스포, 컴업(ComeUp)’ 개막식을 장식했다. 국내 한 스타트업 기업이 온라인상에 퍼져 있는 박 장관 영상 등을 수집해 만들어낸 이 ‘딥페이크(Deepfake·인공지능을 이용한 합성기술)’ 영상은 박 장관의 목소리부터 눈썹의 움직임까지 포착해 실제 박 장관이 말하는 것과 같은 모습을 만들어냈다. 박 장관은 영상이 끝난 이후 단상에 올라 “AI가 아닌 ‘진짜’ 박영선이다”라며 “(인공지능 박영선에) 깜짝 놀랐다”고 소감을 표했다.

지난해 11월13일 MBC 뉴스데스크에 방영된 박영선 중소벤처기업부 장관의 딥페이크 영상. 온라인상에 게시돼 있는 박 장관의 이미지와 영상 등 빅데이터를 기반으로 얼굴과 목소리를 합성해냈다. MBC 뉴스 캡처

앞서 지난해 4월에는 ‘말라리아 퇴치’를 위해 제작된 세계적인 축구 스타 데이비드 베컴의 딥페이크 영상이 화제가 됐다. 베컴이 출연한 원본영상에 인공지능의 ‘딥러닝(자가 심층학습)’ 기술을 활용해 아랍어, 키냐르완다어, 스와힐리어 등 8개국 언어를 더빙한 이 영상은 마치 베컴이 9개국 언어를 연달아 말하는 것과 같은 효과를 냈다. 이는 말라리아 퇴치를 위한 행동에 세계시민들이 함께 나서자는 영상의 취지와 맞아떨어지면서 좋은 반응을 이끌어냈다.

 

인공지능 기술이 발전을 거듭하면서 온라인상에 떠다니는 무수한 영상 등 빅데이터를 바탕으로 실존인물이 하지 않은 발언과 행동을 마치 한 것같이 꾸미는 ‘딥페이크’도 급속도로 발달하고 있다. 이 기술은 영상 더빙뿐만 아니라 사람이 직접 하기는 힘든 동작을 영상으로 구현해내는 등 긍정적인 방향으로 활용할 수 있지만, 음란물 합성·정치적 악용 등 부정적으로 사용될 위험성이 더 크게 부각 받는다.

전문가들은 이러한 ‘딥페이크 논란’이 인공지능 발달에 따라 계속될 사회적·윤리적 문제의 시작점으로 보고 ‘기술 악용’이 기술 발전에 걸림돌이 되지 않도록 공론화 및 제도 마련에 나서야 할 때라고 강조했다.

 

◆빠른 기술 발전…원본 판명조차 어려워

 

딥러닝과 가짜를 뜻하는 영어 단어 페이크(fake)를 합성한 단어인 딥페이크는 2017년 미국의 한 인터넷 커뮤니티에 유명 여배우의 얼굴과 음란물을 합성한 영상이 올라오면서부터 논란이 됐다.

 

딥페이크 영상은 서로 다른 두 개의 AI가 각각 ‘생성자’와 ‘판별자’로 역할을 나누고, 상호 경쟁을 거쳐 인간의 개입 없이 성능을 진화시켜 나가는 ‘생성적 적대 신경망(GAN)’ 기술을 기반으로 한다. 한쪽의 AI가 수많은 데이터를 기반으로 원본과 유사한 복사본을 만들어내면, 또 다른 AI가 이 복사본을 원본과 대조하면서 스스로 성능을 개선해 나가는 방식이다. 등장 초기에만 하더라도 실제 촬영한 영상이 아니라는 점을 눈치챌 수 있었지만, 최근에는 원본과 위조본의 구분이 힘들 뿐만 아니라 적은 수의 원본 이미지만으로도 딥페이크 영상을 만들어낼 수 있을 만큼 기술이 발전했다.

딥페이크 기술은 현재까지 부정적으로 사용된 사례가 더 많다.

 

3일 네덜란드의 사이버보안 연구회사인 딥트레이스의 ‘딥페이크 현황(The State of Deepfakes: Landscape, Threats, and Impact)’ 보고서에 따르면 2018년 12월에는 온라인상에 7964개의 딥페이크 동영상이 존재했지만, 지난해 7월 기준 1만4678개로 배 가까이 증가했다. 이 중 절대다수(96%)가 ‘딥페이크 포르노 영상’이었고, 상위 4개의 딥페이크 포르노 영상 사이트가 기록한 총 뷰 수는 1억3436만4438건에 달했다. 딥트레이스는 딥페이크 포르노사이트에 올라온 영상 중 한국 연예인 영상이 25%를 차지한다는 분석 결과를 내놓기도 했다. 이미 다수의 이미지와 영상이 유포돼 있는 연예인들이 합성의 주된 대상이 되고 있지만 일반인들도 합성의 대상이 될 위험성이 존재한다.

◆‘딥페이크’로 정치 공격과 사기 피해 가능성까지

 

특히 딥페이크로 인한 파장이 클 것으로 예측되는 분야는 정치다. 선거를 앞두고 후보자의 얼굴에 악의적인 발언을 합성해 유포할 경우, 이에 대한 충분한 해명 없이 시민들의 의사와는 다른 선거 결과를 초래할 가능성이 있기 때문이다. 오바마 전 미국 대통령이 트럼프 대통령을 비난하는 딥페이크 영상이 큰 화제를 몰고 왔던 미국에선 2016년 대선 당시 논란이 된 ‘가짜뉴스’에 이어 올해 대선에선 딥페이크 영상이 몰고 올 수 있는 파장에 촉각을 곤두세우고 있다.

 

우리나라에서도 자유한국당 박대출 의원이 지난해 국회 과학기술정보방송통신위원회 국정감사에서 딥페이크가 총선에 악용될 가능성을 지적했다.

 

최근에는 딥페이크 기술에 의한 사기 피해 가능성까지도 점쳐지고 있다. 금융보안원이 지난달 26일 내놓은 ‘2020 사이버보안 이슈 전망’에는 “국내 금융권도 비대면 실명확인을 위해 화상통화를 활용하거나 목소리, 얼굴 등을 이용한 바이오인증을 금융거래에 접목하고 있어 딥페이크 공격 발생 위험이 증가했다”는 분석내용이 담겼다.

 

금융보안원은 지난해 영국의 한 에너지기업이 딥페이크 기술을 활용해 상사의 지시인 것처럼 조작한 음성메시지에 속아 헝가리 공급사에 20만유로를 송금한 사건을 예로 들며 딥페이크 기술을 이용한 고도화된 피싱 공격에 사기 피해를 볼 수도 있다고 내다봤다. 당시 상사의 목소리는 평소 음색과 억양, 끊어 말하는 습관까지 똑같을 만큼 정교하게 조작된 것으로 알려졌다.

◆“기술활용 가능성은 무궁무진…제도 마련 필요

 

전문가들은 딥페이크가 기반으로 하는 GAN 기술 자체는 얼굴과 목소리를 합성하는 데에만 사용되는 것이 아니라 의료·경제·교육 등 다양한 방면에서 사용될 수 있다며, 기술은 결국 ‘인간이 어떻게 활용하느냐’에 달려 있다고 입을 모았다. 이들은 특히 기술 악용에서 비롯되는 인공지능에 대한 반감은 기술의 발전에도 부정적인 영향을 미칠 수 있는 만큼 악용 가능성을 막기 위한 ‘AI 기술 윤리’를 잠정적으로라도 합의하고 사회적 공론화 과정을 통해 적절한 제도 마련이 시급하다고 강조했다.

 

김채규 부경대 연구교수(IT융합응용공학)는 “(이 기술로) 아이들을 대상으로 창의적인 교육을 하거나 의료·주식분야에서 예측모델을 만들어내는 등 다양한 방법으로 사용될 수 있다”며 “무궁무진하게 사용할 수 있는데, 정치적 또는 엔터테인먼트 쪽에서 부정적으로만 사용하고 있으니 인공지능의 본래 가치를 많이 훼손하고 있다”고 지적했다. 김 교수는 이어 “인공지능 기술을 활용하다 보면 잘되는 곳이 있고, 그렇지 않은 곳이 있을 수밖에 없는 것”이라며 “(기술이) 부정적인 방향으로만 거론되면 신기술을 개발하는 사람의 사기도 떨어질 수밖에 없다. 문제가 되는 부분은 제도적으로 막기 위해 우리가 함께 고민할 필요가 있다”고 강조했다.

 

장종욱 동의대 교수(컴퓨터공학)도 “AI 기술을 부정적으로 사용하지 않도록 하는 ‘AI 윤리’를 잠정적으로라도 합의해야 하는 시기”라며 “시간이 지나면 (딥페이크 악용을) 방지하는 기술까지도 등장하겠지만, 현재는 과도기적인 상황이기 때문에 빨리 공공기관이나 정부가 악용을 방지하기 위한 행동에 나서야 한다”고 말했다.

 

장 교수는 “유튜브 등 영상을 제공하는 플랫폼에서도 딥페이크 영상인지 판별해 줄 수 있는 기술적 조치를 취할 필요가 있다”고 덧붙였다.

 

이강진 기자 jin@segye.com