메뉴보기메뉴 보기 검색

자살방조죄 성립될까… AI 플랫폼 책임 논란 [심층기획-AI, 위험과 위로 사이]

입력 :
수정 :
폰트 크게 폰트 작게
“정보 제공 업체도 간접 책임”
“현행법상 처벌 한계” 엇갈려

국내에서 생성형 인공지능(AI) 답변을 참고해 자살을 시도한 사례가 24일 확인되면서 AI 플랫폼에 자살 관련 법령 위반 혐의를 적용할 수 있을지를 둘러싼 논란이 커지고 있다. AI가 구체적인 자살 정보를 즉각 제공할 수 있어 법 위반 가능성이 크다는 주장과 현행법 체계로는 AI 플랫폼에 직접 책임을 묻기 어렵다는 반론이 팽팽하다.

생성형 인공지능(AI) 답변을 참고해 자살을 시도한 사례가 확인되면서 AI 플랫폼에 자살 관련 법령 위반 혐의를 적용할 수 있을지를 둘러싼 논란이 커지고 있다. 신화연합뉴스
생성형 인공지능(AI) 답변을 참고해 자살을 시도한 사례가 확인되면서 AI 플랫폼에 자살 관련 법령 위반 혐의를 적용할 수 있을지를 둘러싼 논란이 커지고 있다. 신화연합뉴스

가장 큰 쟁점은 AI 플랫폼의 책임 여부다. AI 플랫폼이 유해 정보 제공을 사전에 막을 수 있었는데도 선제적인 조치를 취하지 않았다면 그에 따른 책임을 물을 수 있다는 것이다. 정원준 법무법인 광장 수석연구위원(전 한국법제연구원 AI법제팀장)은 “인공지능 서비스가 자살 정보를 제공하는 데 활용된다는 걸 알면서도 적절한 조치를 하지 않으면 간접 책임의 대상이 될 수 있다”며 “정보통신망법, 전기통신사업법도 서비스 사업자가 져야 하는 책임을 규정하고 있어 해당 법이 적용될 가능성이 있다”고 설명했다.

반면 AI를 고의로 악용한 주체는 사용자인 만큼 AI 플랫폼에 직접적인 책임을 묻기는 어렵다는 반론도 만만치 않다. AI가 자살 정보를 제공한 건 사용자가 범용 대형언어모델(LLM) 서비스의 허점을 찾아낸 결과이므로 플랫폼이 고의적으로 유해 정보를 제공했다고 볼 수 없다는 것이다.

AI의 직접 관여 여부도 핵심 쟁점이다. AI가 사용자의 자살 시도를 예견하고 도왔는지에 따라 자살방조죄(형법 제252조 2항) 성립 여부가 판가름난다. AI는 사용자와의 대화 맥락을 파악해 답변을 제공하는 만큼, AI가 자살 시도 상황을 사전에 인지할 수 있었냐를 두고 의견이 나뉜다.

이동진 서울대 법학전문대학원 교수는 “구체적인 사실관계를 놓고 자살방조죄를 따져 봐야 하지만 AI 플랫폼이 사용자의 행위를 일일이 지켜보진 않는다”고 설명했다.

권창환 한국인공지능법학회 부회장(부산회생법원 부장판사)은 “AI 기술이 인간의 의지와 사고에 영향을 미칠 수 있는 단계에 이르렀다는 점에 사회적 공감대가 형성돼야 자살방조나 불법 행위 책임 논의가 가능하다”고 말했다.