세계일보
메뉴 보기 검색

사고·논란 9년 새 26배 급증… ‘FATE’ 확보에 ‘운명’ 달렸다 [심층기획-AI 앞에 선 민주주의]

(3회) AI시대의 새 규칙, 어떻게 짜야할까

오·남용 탓 민주주의 악영향 늘어
젤렌스키 항복 영상 대표적 사례
EU 등 ‘FATE 원칙’ 법제화 나서
美, 진흥서 규제로 무게중심 이동

챗GPT 개발사 “국제기구 필요”
전문가들도 “국제 협력” 목소리
英, 11월 AI 규제 주제 정상회의
“안전망 마련 때까지 개발 멈춰야”

인공지능(AI)의 ‘운명(fate)’은 어떻게 될까. 챗GPT 등 생성형 AI가 보급되고, AI로 대량 생산된 거짓 정보가 만연해지면서 AI가 민주주의를 위협한다는 경보음이 울리고 있다. AI의 편향성과 불투명성이 선거에 영향을 미칠 뿐 아니라 기본권을 침해하는 등 민주주의 가치를 훼손한다는 것이다.

실제 AI가 널리 사용되면서 AI 오·남용이 민주주의에 악영향을 미치는 사례는 갈수록 늘고 있다.

5일 AI 관련 데이터를 전문으로 취급하는 ‘AI, 알고리즘, 자동화 사고 및 논쟁 공공 데이터베이스’(AIAAIC)에 따르면 AI 관련 사고·논란 수는 2012년 10건에서 2021년 260건으로 26배 증가했다. 딥페이크로 만들어진 볼로디미르 젤렌스키 우크라이나 대통령의 항복 영상이나, 런던 경찰청이 범죄조직의 잠재적 위험도를 평가하기 위해 사용한 AI 시스템에서 특정 소수 민족이나 인종을 차별하는 경향이 발견된 사건 등이 대표적이다.

전문가들은 인공지능의 운명이 공정성(Fairness), 책임성(Accountability), 투명성(Transparency), 윤리의식(Ethics)의 앞글자를 딴 ‘FATE’의 확보 여부에 달려 있다고 진단한다. 실제 유럽연합(EU)을 중심으로 세계 주요국은 윤리적 차원에서 논의됐던 FATE 원칙을 법제화하는 단계에 들어섰다.

◆‘FATE’ 법제화 나선 AI 선진국들

AI 규제 법제화에 가장 속도를 내는 곳은 EU다. EU는 2021년 AI 프로그램을 4등급으로 평가·분류해 관리하는 내용의 AI법 초안을 만든 후 논의를 진행해 왔다. 챗GPT 등 생성형 AI 등장 이후에는 금지 인공지능을 확대하고 고위험 인공지능의 투명성 의무를 확대하는 내용의 수정안을 만들었다. 지난 6월14일 본회의를 통과한 AI법은 현재 EU 의회·집행위원회·이사회가 3자 협상을 진행 중으로, 전 세계 최초로 AI를 규제하는 공식 법안이 탄생할 가능성이 높다.

EU AI법은 인간 중심의 접근을 위해 △인간에 의한 감독 △기술적 견고성·안전성 △프라이버시·데이터 거버넌스 △투명성 △다양성·비차별성·공정성 △사회·환경복지를 AI가 준수해야 할 일반원칙으로 제시한다. 또 인공지능의 권리 침해를 예방하기 위한 기본권 영향평가 등을 도입했고, 생성형 AI에 대해서는 기본권·민주주의·안전 등에 위반되지 않는 콘텐츠를 만들 것을 요구한다.

빅테크 기업을 중심으로 AI 시장을 선점하고 있는 미국은 그동안 진흥에 초점을 둬왔지만, 최근 규제 필요성이 제기되고 있다. 2019년 발의됐지만 계류 상태였던 ‘알고리즘책임법’이 지난해 다시 발의됐다. 이 법은 AI 등 ‘자동화된 의사결정 시스템’과 그 시스템을 중요한 의사결정에 활용하는 과정이 소비자에게 미치는 영향을 평가하도록 하는 내용을 골자로 한다. 기업은 영향평가 요약보고서를 작성해 연방거래위원회(FTC)에 제출해야 한다.

EU를 탈퇴한 영국은 친혁신적 방식을 전제로 AI를 규제하는 내용을 담은 AI 백서를 지난 3월 발간했다. 영국은 △안전·보안·견고성 △투명성·설명 가능성 △공정성 △책임·거버넌스 △경합성·보상 등 5가지 원칙을 바탕으로 규제 법안을 마련할 예정이다.

◆IAEA급 AI 감시기구 탄생할까

AI 업계에서도 AI의 위험성을 고려해 AI를 규제해야 한다는 주장이 나온다. 챗GPT 개발사인 오픈AI의 최고경영자(CEO)인 샘 올트먼은 지난 5월 AI 관련 청문회에서 국제원자력기구(IAEA)와 같은 AI 국제기구가 필요하다고 밝혔다. 3월에는 일론 머스크 테슬라 CEO와 애플 공동창업자인 스티브 워즈니악 등이 6개월간 첨단 AI 개발을 일시 중단해야 한다고 주장했다.

AI 윤리 분야 권위자인 조안나 브라이슨 교수가 지난 6월22일 독일 베를린 헤르티 스쿨 연구실에서 진행한 세계일보와의 인터뷰에서 AI 규제에 대해 말하고 있다. 베를린=유지혜 기자

취재팀이 지난 6월 런던과 베를린에서 만난 전문가들은 대체로 AI 규제를 위해 국제 협력이 필요하다는 의견에 동의했다. 조안나 브라이슨 교수는 “AI를 위한 글로벌 파트너십은 ‘기후변화에 관한 정부 간 협의체’(IPCC)와 같은 역할을 해야 한다”면서 “AI는 원자력과 마찬가지로 자연스러운 발견이 아니라 인간이 만든 기술이다. IAEA와 비슷한 방식으로 AI를 어떻게 개발하고 사용할지 규제하는 것이 필요하다”고 말했다. 브라이슨 교수는 AI 윤리 분야의 권위자로, 독일 베를린의 헤르티 스쿨 디지털 거버넌스 센터에 재직 중이다.

 

노팅엄대 호라이즌 디지털 경제 연구소를 거쳐 글로벌 회계·컨설팅 기업 EY에서 AI 윤리·규제 책임자를 맡고 있는 안스가 코네는 “AI는 국경을 초월해서 활용되기 때문에 국제 거버넌스를 구축하는 데 문화적 차이가 있고, 국가마다 다른 기준이 문제가 될 수 있다”며 “국제기구에서 기술 개발을 주도하고 규제를 통합시키면서 나아가야 한다”고 했다. 그는 EU 의회를 위한 ‘알고리즘 책임과 투명성을 위한 거버넌스 프레임워크’에 관한 과학 기술 옵션 평가 보고서의 수석 저자다.

AI 거버넌스 전문가인 안스가 코네가 지난 6월19일 영국 국회의사당에서 열린 AI와 윤리 관련 세미나에 참석하기 전 세계일보와 만나 AI 규제에 대해 말하고 있다. 런던=유지혜 기자

특히 영국은 AI 규제 논의의 주도권을 잡기 위해 공을 들이고 있다. 영국은 오는 11월1∼2일 AI 안전 정상회의를 개최한다. AI 규제를 주제로 정상회의가 열리는 것은 이번이 처음으로, 회의에서는 AI 기술의 위험성을 공유하고 이를 완화하는 공동 접근 방식을 도출하기 위한 협력 방안 등이 논의될 전망이다. 영국 정부는 AI 규제를 위한 국제기구를 유치하겠다는 목표를 세운 것으로 알려졌다.

적절한 규제와 안전망이 마련될 때까지 AI 개발을 일시 중단하거나 속도를 늦춰야 한다는 목소리도 나온다. 하지만 AI 규제에는 단순 윤리 문제뿐 아니라 글로벌 기술 패권 경쟁 문제 등이 얽혀 있다. AI 선도 기업이나 국가가 AI 규제 논의를 주도하는 것은 ‘사다리 걷어차기’라는 시각도 있다. 자신들의 기득권을 지키고 후발주자의 성장을 막기 위한 의도라는 것이다.

다니엘 아부 독일 AI 협회 이사가 지난 6월26일 독일 베를린에 있는 협회 사무실에서 진행한 세계일보와의 인터뷰에서 AI 규제에 대해 말하고 있다. 베를린=유지혜 기자

다니엘 아부 독일 AI 협회 이사는 “미국의 빅테크 기업들은 전혀 규제 없이 AI를 개발해 왔고 성과를 내왔다”면서 “지금 이 순간 규제를 하고 개발을 멈추자는 것은 미래에 대한 두려움이 아니라 후발주자인 독일이나 한국의 기업들이 따라오지 못하게끔 길을 막으려는 것으로밖에 보이지 않는다”고 강조했다.

 

※본 기획물은 정부광고 수수료로 조성된 언론진흥기금의 지원을 받았습니다.

런던·베를린=유지혜 기자 keep@segye.com