세계일보
메뉴 보기 검색

일상 파고든 딥페이크 ‘무법지대’ 우려

오픈AI ‘소라’ 상용화 전망에
관련 기술 악용 범죄 가능성 ↑
현행법상 AI 음란물 규제 사각
반포 목적만 해당… 처벌 어려워
보이스피싱 등 사기 증가 불보듯
“기술적인 예방 장치 개발 시급”

챗GPT 개발사 오픈AI의 동영상 생성 인공지능(AI) ‘소라(Sora)’로 누구나 손쉽게 동영상을 만드는 시대가 열릴 전망이다. 소라는 간단한 명령어만으로 동영상을 뚝딱 만들어 낸다. 다만 일각에선 소라가 상용화되면 ‘딥페이크’ 동영상 음란물 제작에 쓰일 가능성도 제기된다. 현행법상 AI가 생성한 변종 음란물을 규제할 방법은 없다.

이처럼 생성형 AI 발달로 딥페이크가 우리의 일상 속에 침투하는 속도가 빨라지며 각종 법적 문제가 대두할 가능성도 커지고 있다. 사회적 공론화를 통해 AI를 악용한 범죄 가능성에 대비해야 한다는 지적이 나온다.

17일 법조계에 따르면 AI 기반의 첨단 조작 기술인 딥페이크(Deepfake)는 법적으로 ‘AI 기술 등을 이용해 만든 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등’으로 정의된다. ‘딥페이크 영상 등을 이용한 선거운동’을 금지한 공직선거법 제82조의8 1항에 이같이 명시됐다.

딥페이크는 선거범죄 외에도 거의 모든 범죄에 악용될 위험이 있다. 법무법인 화우에서 AI 등 신기술 업무를 총괄하는 이광욱 변호사는 “딥페이크는 실존 인물, 실존 인물과 유사성을 띠는 가상 인물과 관련된 두 가지로 나뉠 것”이라며 “사람을 오인하고 혼동할 수 있는 모든 영역에서 문제가 될 수 있다”고 분석했다.

현재 가장 문제가 되는 건 음란물이다. 딥페이크와 관련해 처벌 공백이 존재한다. 성폭력범죄의 처벌 등에 관한 특례법 제14조의2 1항에 따라 ‘반포 등을 할 목적으로 사람의 얼굴·신체·음성을 대상으로 한 촬영물·영상물·음성물을 영상물 등의 대상자 의사에 반해 성적 욕망 또는 수치심을 유발할 수 있는 형태로 편집·합성·가공한 자’는 5년 이하 징역 또는 5000만원 이하 벌금에 처한다. 다만 ‘반포 등을 할 목적’이 구성요건이라 개인 소지 목적의 딥페이크 음란물 제작 행위는 처벌 대상이 아니고, 반포 목적의 입증도 쉽지 않다. 이광욱 변호사는 “소라 같은 걸로 가상 인물 음란물을 만든다면 음란물에 해당되는지부터 문제가 된다”며 “실사가 아니기 때문”이라고 말했다. 이어 “예를 들어 최근 논란 된 (팝 스타) 테일러 스위프트 딥페이크 음란물의 경우, 제작자가 ‘AI 프로그램을 돌려 만들어 주인공이 스위프트와 닮긴 닮았는데 스위프트로 만든 건 아니다’고 항변하면 모호해져 버린다”고 설명했다.

딥페이크는 날로 진화하는 사기 수법에도 악용될 수 있다. 일례로 연예인이나 명사들의 얼굴과 목소리로 만든 딥페이크 영상이 주식 등 투자 사기에 동원될 수 있다. 이는 사기 피해는 물론, 초상권 등 인격권 침해로도 이어진다.

딥페이크 보이스피싱 확산도 우려된다. 실제로 지난해 말 충남경찰청에 발각된 보이스피싱 일당이 방송에 출연한 적 있는 검사의 얼굴 등으로 딥페이크 범죄 수법을 개발 중이었던 것으로 알려졌다.

정보통신기술(ICT) 전문 변호사인 이상직 법무법인 태평양 변호사는 “딥페이크로 피싱(Phishing·개인 정보를 알아내 이용하는 사기) 범죄가 아주 교묘해질 것”이라며 “수법이 고도화된 재산 범죄에 일반인들이 노출되기 쉬운 환경이 됐다”고 지적했다.

딥페이크 범죄는 그로 인한 피해 회복이 어렵다는 점에서 처벌 강화와 함께 예방이 관건으로 지목된다. 이상직 변호사는 “기술적으로 딥페이크인지 진짜인지를 구별해 범죄에 노출된 사람에게 알리는 시스템을 개발할 필요가 있다”고 제언했다.


박진영 기자 jyp@segye.com