인공지능(AI) 창작물에는 AI를 활용했다는 사실을 표시하도록 의무화해야 한다는 주장이 나왔다. 딥페이크 기술이 갈수록 정교해짐에 따라 관련 범죄에 대응할 때 피해자 신고에 의존하는 방식은 한계가 명확하다는 지적이다.
정준화 국회입법조사처 조사관은 19일 입법처가 펴낸 소식지 ‘이슈와 논점’에 실린 ‘딥페이크 식별을 위한 AI 생성물 표시의무 입법방안’ 기고문에서 이같이 주장했다. 정 조사관은 “AI 발전 속도를 고려하면 앞으로 딥페이크는 더욱 증가하고 정교해질 것”이라며 “지금처럼 피해자 신고에 의존하거나 규제기관의 모니터링으로 차단하는 방식은 한계에 직면할 수밖에 없어 딥페이크가 만들어지고 유통되는 단계에서 적절하게 표시될 수 있도록 의무화해야 한다”고 강조했다.
정 조사관은 우선 AI가 만든 모든 창작물에 표시 의무를 부과할지, 아니면 딥페이크 우려가 있는 제작물에만 표시 의무를 부과할지 고민해야 한다고 짚었다. 그는 “표시 대상을 딥페이크로 정할 경우 그것이 ‘실제와 구분하기 어려운’ 것인지 판단해야 하는데, 판단 주체에 따라 결과가 달라 법률 집행에 혼란이 발생할 우려가 있다”며 “AI로 생성한 콘텐츠라면 (예외 없이) 그런 사실을 표시하도록 하는 것이 효과적”이라고 말했다.
기고문에 따르면 국회에서 발의된 인공지능 관련 법은 지난달 30일 기준 11건이다. 이 중 5건의 법안은 생성형 AI로 만든 콘텐츠는 해당 사실을 표시하도록 규정해 놓았다.
정 조사관은 유럽과 미국의 입법 사례도 소개했다. 유럽연합(EU)은 인공지능법 제50조를 통해 AI 시스템 개발자나 제공자에게 AI를 활용해 만든 콘텐츠에 대해 AI를 통해 생성·조작된 것임을 판독할 수 있게 표시하는 의무를 부과했다.
미국의 경우 조 바이든 대통령이 지난해 12월 서명한 ‘안전하고 보안이 보장되며 신뢰할 수 있는 인공지능의 개발과 사용에 관한 행정명령’을 통해 대응책을 마련했다. 이 행정명령 3조는 정부가 합성콘텐츠의 진위와 출처를 확인하는 방안을 마련하도록 했다. 이에 따라 정부는 상무부 장관을 중심으로 AI로 생성한 정보를 식별하는 기술을 개발할 의무가 있다.