정부가 인공지능(AI) 산업 발전을 위해 AI 규제를 최소화하면서 ‘딥페이크(AI로 만든 조작물)’ 등 AI 악용을 막는 제도를 도입한다. AI를 개발·활용하는 기업에 안전 의무를 부여하되 산업이 위축되지 않도록 처벌은 사실상 유예해 기업 부담을 줄였다.
과학기술정보통신부는 17일 서울 중구 상연재 별관에서 기자간담회를 열고 AI 기본법 하위법령 제정 방향을 설명했다. 과기정통부는 민간전문가 80여명으로 구성된 하위법령 전문단을 지난 1월부터 운영해 시행령과 가이드라인 5건을 마련했다. 투명성·안전성 확보 의무와 고영향 AI 기준, 사업자 책무 등이 포함됐다. 규제와 지원 대상은 구체화하고, 격변하는 AI 산업 환경을 고려해 유연성을 높였다는 게 정부 설명이다.
김경만 과기정통부 인공지능기반정책관은 “벤처나 스타트업계는 법령 자체를 규제로 여길 수 있고, 시민단체는 강력한 규제를 원한다”며 “진흥에 중점을 둔 규제 체제를 중심으로 시행령을 보완하는 가이드라인을 마련했다”고 말했다.
◆고성능 AI에 안전 확보 의무 부여
누적학습량이 일정 수준 이상인 고성능 AI는 안전 확보 의무가 부여된다. 기본권이 침해되거나 공공의 안전을 위협하는 요소를 고려하고 위험의 실현 가능성, 중대성 등을 평가해 관리체계를 구축한 뒤 결과를 제출해야 한다. 의무 대상이 되면 3개월 내로 안전성 확보 조치 사항을 문서화해 과기정통부에 내야 한다.
정부는 고영향 AI 판단 기준과 신뢰성 확보를 위한 이행사항도 구체화했다. 대상 사업자는 위험관리 조직을 구성하고 위험관리체계를 운영, AI 결과 도출 기준이나 학습용 데이터 개요 등을 설명하는 방안을 수립·시행해야 한다.
법 위반사항이 발견되면 정부는 사실 조사를 진행하고 위반행위에 대한 시정명령을 내리게 된다. 시정명령을 따르지 않으면 3000만원 이하의 과태료가 부과될 수 있지만 업계 혼란을 줄이기 위해 과태료 계도기간을 운영하기로 했다.
정부의 사실 조사 행위가 벤처·스타트업 기업 부담으로 작용할 수 있다는 지적에 대해 송도영 변호사(법무법인 비트)는 “사실 조사를 하지 않으면 법 위반이나 오남용 가능성이 있다”며 “사실 조사를 시행해서 증거를 확보하고 이에 따른 시정명령을 하되 과태료 부과는 유예해 기업 부담을 줄여주는 게 적절하다”고 했다.
과기정통부는 이달 시행령 초안을 확정하고 다음 달 입법예고를 진행할 계획이다. 12월 시행령·고시를 마련한 뒤 가이드라인을 공개해 내년 1월부터 시행한다.