세계일보
메뉴 보기 검색

“AI는 조력자… 입법 규제보단 산업 진흥 위주 돼야” [차 한잔 나누며]

‘법무법인 화우 AI센터장’ 이근우 변호사

“AI, 사람과 동등한 대우 안 돼
윤리의식과 안전성 확보 필요
규제, 기술적 성숙 뒤 이뤄져야
샌드박스 같은 진흥책 있어야”

‘인공지능(AI)의 한계는 어디까지일까.’

인간과 유사한 수준 또는 그 이상의 지능을 갖춘 ‘범용 AI’(AGI·Artificial General Intelligence) 출현이 머지않은 시대에 살며 드는 의문이다.

이근우 법무법인 화우 AI센터장은 7일 서울 강남구 화우 사옥에서 인공지능(AI) 기본법 제정 방향과 관련해 “산업 진흥을 위주로 최소한 규제하되 일정 수준이 되면 법을 개정해 필요한 규제를 넣으면 된다”고 강조했다. 법무법인 화우 제공

법무법인 화우 AI센터장인 이근우(51·사법연수원 35기) 변호사는 7일 서울 강남구 화우 사옥에서 가진 인터뷰에서 “AI는 사람을 위한 것이고 사람의 조력자”라며 “AI가 그 수준을 넘어 사람과 동등한 대우를 받아선 안 된다”고 인간과 AI의 바람직한 관계를 정의했다.

AI가 조력자 수준을 넘어서면 인간의 존엄성이 깨지고 영화 ‘터미네이터’처럼 AI가 통제되지 않는 사태가 빚어질 수 있다는 것이다. 이 변호사는 이런 관점에서 AI를 통한 더 나은 법률 서비스를 고민하고 있다.

화우는 지난해 12월 국내 대형 로펌 최초로 AI센터를 열었다. AI 관련 자문 업무를 하고 AI에 관심이 많은 변호사 15명으로 구성됐다. AI센터를 이끄는 이 변호사는 과학기술정보통신부 AI전략최고위협의회 법·제도 분과 위원으로도 활동하고 있다.

최근 로펌 업계에선 AI 관련 리걸 테크를 활용하는 문제가 화두다. 화우는 법률 플랫폼 로톡 운영사 로앤컴퍼니 등과 컨소시엄을 구성해 올해 과기부 정보통신산업진흥원(NIPA)의 ‘AI 법률 보조 서비스 확산 사업’에 참여하는 한편, 내부적으로는 각종 데이터를 디지털화하는 데이터베이스(DB) 구축에 나서고 있다. 이 변호사는 “지금은 조직적으로 AI를 활용해 법률 서비스를 개선하는 작업이 필요하다”고 했다.

그는 “예를 들어 한 10년간 진행되는 소송은 (중간에) 변호사가 바뀌면 기록을 분석해 쟁점을 파악하기가 어렵다”며 “리걸 테크를 활용해 이런 작업을 진행해 보려 하는 것”이라고 설명했다. 이어 “현재 AI는 판례 분석엔 도움이 된다”며 “어떤 판례가 있는지, 손해배상 액수나 형사처벌 정도를 나름대로 분석해 준다”고 소개했다.

AI 관련 법률 자문 수요가 많은 부분은 단연 저작권이다. 이 변호사는 AI 학습을 위한 데이터를 활용할 때 발생할 수 있는 문제를 지적했다. 그는 “AI 학습에 저작권자 동의를 받지 않은 데이터를 쓰면 저작권 위반”이라며 “AI가 학습 데이터로 만들어 낸 결과물이 저작권을 침해하는 문제도 있다”고 소개했다. 이어 “유럽연합(EU)은 데이터 마이닝(정보 추출)에 대해 저작권 면책 규정을 두되, 저작권자가 면책을 허락하지 않겠다고 하면 면책 규정이 적용되지 않게 해 뒀다”며 “우리나라도 그런 입법이 필요하다는 얘기를 많이 하는데, 많은 저작권자들이 반대하고 있다”고 했다.

이 변호사는 AI 기본법과 관련해선 “최소한 규제를 할 수 있는 정도의 기술적 성숙이 이뤄진 다음에 AI를 규제할 필요가 있다”며 “산업 진흥을 위주로 하되 만약 규제한다고 하면 (일정 기간 규제를 면제·유예하는) 샌드박스 등 진흥책을 둬야 한다”고 강조했다.

그는 구체적으로 “EU의 AI법을 보고 AI를 규제해야 한다는 얘기가 나오는데, 우리나라는 EU와 다르다”며 “미국 기업이 선두에 있긴 하지만, 국내 기업들도 혁신을 위해 노력하고 스타트업들도 많아서 일정 부분 따라잡을 수 있을 거라고 생각한다”고 평가했다. 그는 산업이 성장하기도 전에 규제를 강화해 천장을 막아 버리는 입법을 할 필요는 없다고 역설했다.

이 변호사는 AI의 미래에 대한 질문엔 “데이터가 상당히 축적돼 뭔가를 추론하는 분야에선 60∼70%까진 전문가 영역에 근접하는 정도가 될 수 있다”고 조심스럽게 내다봤다. 법조계도 예외는 아니라는 게 그의 진단이다.

이 변호사는 “사람의 경우엔 어떤 전문가는 잘하고 다른 전문가는 다를 수 있는데, AI는 그렇지 않다”며 “인적 오류의 영향을 덜 받으며 DB가 많이 사용되는 영역에선 AI가 충분히 사람을 대체할 수 있을 것”이라고 전망했다. 그는 다만 “AI가 잘못할 수도 있으니 사람의 개입과 관여, 관리·감독이 필요하다”며 “(AI 결과물 등에) 윤리 의식이 결여돼선 안 되고 안전성도 확보해야 한다”고 덧붙였다.


박진영 기자 jyp@segye.com