기술진보 따른 부작용 제동 걸어 세계 표준화 주도권 선점 행보도 AI시대 구경하다 실기해선 안 돼
유럽연합(EU)이 세계 최초로 인공지능(AI) 기술 규제 법안을 만들었다. 지난해 11월 오픈AI가 챗GPT를 공개하면서 불어닥친 전 세계적 열풍 속에 최초로 이 흐름을 통제할 수 있는 법규를 마련한 것이다. AI의 위험성을 분류하고 투명성을 강화하며, 규정을 준수하지 않는 기업에는 벌금을 부과하는 내용이 골자다. 딥페이크·가짜뉴스 등 AI의 위험성이 개인의 평판 훼손과 금전적 사기 등은 물론, 안보·경제와 같은 국가 중대 사안에도 개입할 수 있다고 보고 이를 규제할 필요성이 있다고 판단한 것이다. 예외 조항을 두긴 했으나 기술 진보에 따른 부작용에 제동을 건다는 측면에서 의미가 작지 않다.
아직 법안 세부 내용은 나오지 않았으나 챗GPT 같은 생성형 AI 모델들과 얼굴 인식, 지문 스캐닝 같은 생체인증 툴에 대한 규제를 포함하고 있다. AI 기술 사용에 대한 안전판 역할을 하는 동시에 기업들엔 과도한 부담이 되지 않도록 하는 기준점이 될 수 있다. 조 바이든 미국 대통령이 지난 10월30일 AI와 관련한 미국의 첫 법적 규제 장치인 행정명령에 서명한 것과도 맥이 닿는다. 이 분야 세계 표준화의 주도권을 선점하겠다는 행보라는 해석이 나온다.
앞으로 EU에서 사업하려는 기업, 자율주행차나 의료 장비와 같은 고위험 기술을 선보이는 기업은 데이터를 공개하고 엄격한 테스트를 거쳐야 한다. 규정을 위반하는 기업은 최대 3500만유로(약 497억원) 또는 전 세계 매출의 7%에 해당하는 벌금이 부과된다. 수출로 먹고사는 우리 산업계에 미칠 파장이 큰 만큼 예의주시해야 할 때다. 법안 초안이 유럽 의회와 회원국들의 공식 승인을 거쳐 법적 효력을 갖는 시점이 빨라도 2025년 이후가 될 전망이다. 하지만 기술 발전 속도를 감안하면 우리나라도 관련 규정을 만드는 데 머뭇거릴 여유가 없다.
앞서 세계 주요국들은 지난 11월 영국에서 제1차 AI 안전성 정상회의를 갖고 국제 규제를 위한 협력 방안을 논의했다. 한국은 내년 5월 후속 정상회의 개최국이다. AI 윤리와 규제를 병행하는 방안을 선도적으로 모색해야 하는 입장이다. 그렇다고 장점이 큰 AI 기술을 포기할 수는 없는 일이다. 부작용과 위험을 줄여가면서 기술 개발을 선도해야 한다. 첨단 기술이 대개 그렇듯 ‘승자독식’이라는 특성을 가지지 않는가. 때를 놓친다면 글로벌 AI시대 구경꾼 신세로 전락할 수 있음을 명심해야 한다.