세계일보
메뉴 보기 검색

딥페이크 등 위험 대응 국내 ‘AI 안전연구소’ 문 열어

10개국 참여 국제 네트워크 일원
“위험요소 최소화 협력 기관 역할”
‘AI 경영시스템 KS’ 2025년에 제정

과학기술정보통신부는 27일 경기 성남시 판교글로벌R&D(연구개발)센터에서 안전한 인공지능(AI) 사용을 위한 연구 전담 조직 ‘AI 안전연구소’를 개소했다고 밝혔다.

 

27일 경기 성남시 판교글로벌R&D센터에서 열린 AI 안전연구소 개소식에서 김명주 소장이 발언하고 있다. 연합뉴스

AI 안전연구소는 AI의 기술적 한계, 인간의 AI 기술 오용, AI 통제력 상실 등으로 일어날 수 있는 위험에 체계적·전문적으로 대응하기 위해 설립된 AI 안전 연구 전담 조직이다. 산학연 기관이 AI 안전 분야 연구 협력과 정보 교류를 하는 허브이자 현재 10개국이 참여 중인 ‘국제 AI 안전연구소 네트워크’의 일원이다. AI 안전정책 및 대외협력실, AI 안전평가실, AI 안전연구실 등 3실로 이뤄지며 내년까지 직원 30명 규모를 목표로 하고 있다. 한국전자통신연구원(ETRI)에 소속된 신규 조직으로 구성원들이 ETRI 직원에 준하는 대우를 받는다.

김명주 초대 소장은 “연구소는 규제 기관의 성격이 아니라 국내 AI 기업들이 글로벌 경쟁력을 확보하는 데 장애가 되는 위험 요소를 최소화하도록 지원하는 협력 기관 역할을 할 것”이라고 말했다.

AI 제품과 서비스 개발·활용 기업을 지원하는 ‘AI 경영시스템 국가표준(KS)’도 이르면 내년 상반기 제정된다. 산업통상자원부 국가기술표준원은 이날 열린 ‘AI 경영시스템 KS 제정 설명회’에서 이같이 전했다.

AI 경영시스템은 유럽연합(EU) 등이 AI 법제화를 통해 AI 적용 기업에 AI의 체계적인 관리를 요구하는 추세에 발 빠르게 대응하려는 조치다. 국표원은 앞으로 2개월간 이해관계자 의견 수렴과 기술심의회 심의 등 절차를 거쳐 내년 상반기 중 KS 제정을 완료할 계획이다.

한편 대한무역투자진흥공사(코트라)는 이날 ‘2025년 해외 10대 권역별 진출전략 보고서’를 발간하고 내년 세계 주요국이 미·중 간 경쟁이 격화하는 환경에서 AI, 양자컴퓨팅 등 첨단 산업 육성에 박차를 가할 것으로 내다봤다. 그러면서 설비 투자와 AI, 데이터센터가 증가하면서 발전, 송배전 장비 및 솔루션 등 전력 관련 수요 파악이 중요하다고 강조했다.


이진경·이동수 기자