과기부, 인공지능 제작물에 '워터마크' 제도화 추진

이정호 "AI 윤리 생태계 기반 조성·규제 체계 필요"

인공지능(AI)에 대해 민간이 자율 검증하고, 생성 AI가 만든 결과물에는 워터마크를 제도화하는 방안이 추진된다.

 

과학기술정보통신부는 25일 제4차 인공지능 최고위 전략대화를 열고 이 같은 내용의 ‘인공지능 윤리·신뢰성 확보 추진계획’을 발표했다. 

사진=게티이미지뱅크

AI 윤리·신뢰성 확보 추진계획은 △민간 자율 인공지능 윤리·신뢰성 확보 지원 △세계를 선도하는 인공지능 윤리·신뢰성 기술·제도적 기반 마련 △사회 전반 책임 있는 인공지능 의식 확산으로 구성됐다. 

 

우선 국가 인공지능 윤리기준의 구체적 실천수단으로 채용, 생성 AI 기반 서비스 등 분야별 가이드라인을 마련·확대한다. 민간 자율 신뢰성 검·인증은 다음달부터 추진할 계획이다. 특히 고위험 영역 AI 개발·실증 사업을 수행하는 기업을 일부 선정해 12월에 시범 인증을 추진할 예정이다. 고위험 AI 해설서도 내년 1분기 마련하기로 했다. 

지난 24일 정부서울청사에서 열린 디지털 기반 교육혁신과 K-클라우드 상생을 위한 교육부-과학기술정보통신부 업무협약식에서 이종호 과학기술정보통신부 장관이 인사말을 하고 있다. 연합뉴스

AI 자체가 내포하는 편향성 등 기술적 한계와 AI 오작동 등 잠재 위험요인과 한계에 대응하기 위해 초거대 AI 신뢰성 확보를 위한 기술 개발에 들어간다. 정부는 내년부터 4년간 ‘차세대생성인공지능기술개발’ 사업에 220억원을 투입한다. 

 

이와 함께 AI가 생성한 결과물에 대해 워터마크 도입 제도화를 검토하기로 했다.

 

이종호 과기정통부 장관은 “AI는 디지털 심화 시대의 핵심기술로서 “AI의 신뢰성과 안전성을 확보하기 위한 노력이 무엇보다 중요하다”며 “민간 자율 “AI 신뢰성 검·인증 지원을 비롯한 “AI 윤리 생태계 기반 조성과 적합한 규제 체계를 정립해가는 데 힘쓰겠다”고 말했다.