모호한 규제·거래비 상승… 리스크 안고 ‘불안한 출발’ [심층기획-한국 AI기본법 세계 첫 시행]

이틀간 문의 64건 “점점 늘 듯”
AI생성물 책임 여부 민감 반응
대응책 없는 스타트업 더 막막

시민사회 ‘솜방망이 처벌’ 지적
“법 위반 과태료 3000만원 그쳐”
산업 진흥 vs 규제 논쟁 평행선

인공지능(AI) 산업 발전과 안전 기반을 다지는 ‘AI 기본법’이 지난 22일 시행된 후 아직은 AI 업계 현장에서 우려했던 혼란이 발생하지 않고 있다. 정부가 규제 위반에 대한 과태료 부과뿐만 아니라 사실조사도 유예하고 ‘기업 컨설팅’에 집중하고 있어서다. 하지만 업계에선 규제 불확실성과 거래비용 상승에 따른 제도적 부담 등이 해소되지 않았다는 불만과 걱정이 여전하다. 일각에선 AI 산업 부흥에만 매진하다가 실효성 없는 제재를 내놨다는 반발도 나온다.

26일 과학기술정보통신부와 관련 업계에 따르면 AI 기본법 시행일에 맞춰 산업계 애로사항을 해소하기 위해 개소한 ‘AI 기본법 지원 데스크’에 이틀간(22∼23일) 64개 문의가 접수됐다. 시행 당일 20개 안팎의 질의가 들어온 뒤 이튿날 문의가 두 배 이상 늘었다. 지원 데스크 관계자는 “법 시행 이후 영업일이 2일에 불과했고, 지원 데스크 개소 소식이 널리 공유되는 데 필요한 시간을 고려하면 앞으로 문의는 계속 늘어날 것으로 보인다”고 말했다.



기업들의 문의는 기초적인 질문부터 이해관계가 복잡한 내용까지 천차만별이었다고 한다. 일부 업체는 AI 기본법을 서둘러 시행한 이유를 묻기도 했다. AI 법을 처음 만든 유럽연합(EU)이 시행 시기를 단계별로 늦추면서 한국은 AI 법을 전면 시행한 첫 국가가 됐기 때문이다. 생성형 AI를 활용해 콘텐츠를 만드는 미디어·콘텐츠 기업들은 AI 생성물에 대한 책임 여부에 민감하게 반응했다. 생성물에 워터마크 등을 표시해야 하는 의무 대상자에 포함되는지, 구체적인 법적 책임에 대한 문의가 많았다.

◆스타트업 부담 완화 필요

AI 기본법 제정은 AI 혁신을 저해하진 않으면서 부작용과 위험을 최소화할 법적 기반이 필요하다는 문제의식에서 추진됐다. 3년 단위로 AI 기본계획을 만들고, 전략 컨트롤타워, 연구·정책센터 등 AI 산업 관리 체계를 법제화했다는 데 의미가 크다. 법안의 90%가량이 산업 진흥에 초점을 뒀고 고영향 AI, 투명성, 안전성 세 분야에 대한 규제가 포함됐다. 위험이 큰 영역만 최소한으로 규제하는 방안인데, 업계에선 모호한 규제 기준과 비용 부담 등으로 글로벌 경쟁력에서 뒤처질 것을 우려한다.

스타트업 등 중소기업과 대기업 간 제도 부담 수준이 다른 점도 문제다. 법 시행 후 이동통신 3사는 AI 기본법 대응 체계를 갖추고 내부 관리 기준을 점검하겠다고 밝혔다. 법무실과 정보보안센터 등이 참여하는 AI 리스크 관리 체계를 운영하거나 AI 기술 개발에 법·윤리 영향을 포괄하는 거버넌스를 구축하기도 한다. 카카오 등 국내 대표 정보기술(IT) 기업들은 AI 생성물 표시 의무인 ‘투명성 의무’를 앞서 이행하고 있었는데, 안내를 추가하는 등 준법 체계를 갖추고 있다.

반면 스타트업얼라이언스가 지난달 국내 AI 스타트업 101곳을 대상으로 조사한 결과 실질적 대응 체계를 마련한 기업은 2%에 그쳤다. AI 스타트업 관계자는 “스타트업은 컴플라이언스(준법 관리) 체계를 구축할 인력과 자원이 충분하지 않다”며 “혁신 기술 최전선에 있는 스타트업들의 부담이 커지면 산업 경쟁력에도 악영향을 미칠 것”이라고 했다. 규제 기준이 모호해 기업 경영 불확실성을 키운다는 지적도 있다. 오픈AI 같은 AI 개발 기업과 이를 활용해 AI 서비스를 제공하는 AI 사업자에게 AI 생성물 표시 의무를 부여한 투명성 의무의 경우 규제 대상자인 AI 사업자와 이용자 구분이 모호하단 목소리가 많다. 일반 AI 생성물과 딥페이크(허위조작물), 딥페이크 중 예술·창작물 표시 방법이 다른데 이를 구분하기도 쉽지 않다. 정부가 제시한 가이드라인에는 실제 규제 대상과 맞지 않는 사례도 있는 것으로 알려졌다.

게임의 경우 AI 콘텐츠 생성기능이 적용됐다면 이를 안내해야 하는데 법 시행 이후에도 유명 게임을 비롯해 관련 표시 체계가 제대로 구축되지 못한 게임이 적잖은 것으로 파악됐다. 해당 게임을 운영하는 기업들은 AI 기본법 준수 의지를 드러냈으나 구체적인 계획은 공개하지 않았다. 게임 업체 관계자는 “게임 적용을 위한 방법은 계도기간 중 추가로 정립할 것”이라고 설명했다.

사람의 생명·안전과 기본권에 중대한 영향을 미치는 고영향 AI는 적용 여부를 기업에 사전에 검토해 위험관리방안, 사람 관리 체계 구축 등 책무가 추가된다. 하지만 이것 역시 기준이 명확하지 않아 추후 법적 리스크가 커질 수 있다는 우려가 제기된다. 정부는 현재 고영향 AI에 해당하는 사례로 비상시에도 스스로 판단해 주행하는 ‘자율주행 레벨 4 이상’을 꼽고, 의무 대상 기업이 없다고 설명한다. 다만 AI 발전 속도가 급격히 빨라져 머지않아 고영향 AI 기준에 부합하는 곳이 늘어날 것이란 전망도 나온다.

◆처벌 없는 규제 실효성 낮아

시민사회는 AI 기술에 잠재한 위험성이 큰데 규제 실효성이 낮다고 지적한다. 산업 발전에만 집중해 이용자 피해나 부정적인 영향을 제대로 다루지 않았다는 것이다. 법을 위반해도 시정명령과 최대 3000만원 과태료 부과에 그쳐 억지력이 약하다는 비판이다. EU의 AI 법은 전 세계 연간 총 매출의 7%나 3500만유로의 과징금을 매긴다.

법에 ‘AI에 영향받는 자’가 포함됐으나 이들의 권리나 구제 절차 등은 빠졌고, 사업자 의무를 축소·면제하는 조항이 주를 이룬다는 주장도 있다. 이들은 의료, 금융 등 고영향 AI 범위가 협소한 데다 사람의 관리 체계를 두면 고영향 AI 범위에서 제외돼 AI로 인한 피해가 발생해도 실질적인 구제가 어렵다고 설명한다. AI 생성물 표시 의무가 AI 사업자에 한정돼 개인 등의 악용을 막기 어려운 점도 지적됐다. 개인의 경우 워터마크를 지우고 플랫폼에 생성물을 올리더라도 법 위반에 해당하지 않는다.

정부는 AI 기본법이 AI 사업자 중심의 규제법이란 점을 재차 강조한다. 앞선 사례처럼 개인이 워터마크를 지우는 행위는 AI 기본법에 저촉되지 않지만 허위영상물을 만들어 유포하는 등의 행위는 정보통신망법 등 기존 법 위반이기 때문에 처벌될 수 있다는 것이다.

정부는 미완의 법을 발전시키기 위한 환경 조성에 나서기로 했다. AI 기본법이 세계 최초로 시행된 만큼 산·학·연이 함께 논의해 법을 개선할 방침이다.