세계일보
메뉴 보기 검색

“AI챗봇 중독돼 아들 죽었다”… 美서 개발사 상대 민사 소송 [당번의 픽]

미국에서 한 어머니가 자신의 10대 아들이 인공지능(AI) 챗봇에 중독돼 스스로 목숨을 끊었다며 AI 챗봇 개발 업체에 소송을 제기했다.

 

23일(현지시간) 뉴욕타임스(NYT) 등은 미국 플로리다주에 사는 메간 가르시아가 이날 플로리다주 연방법원에 AI 챗봇을 만드는 업체 ‘캐릭터.AI’를 상대로 민사 소송을 제기했다고 보도했다. 그는 자신의 아들 슈얼 새처가 챗봇에 중독돼 극단적인 선택을 했다고 주장했다.

AI. 사진은 기사 내용과 직접적 관련 없음. 로이터연합뉴스

슈얼은 지난해 4월부터 캐릭터.AI가 만든 챗봇을 사용하기 시작했다. 캐릭터.AI는 사용자들이 직접 캐릭터를 만들거나 다른 사용자가 만든 캐릭터와 대화를 나눌 수 있는 프로그램을 제공하고 있다. 슈얼은 미국 드라마 ‘왕좌의 게임’에 나오는 등장인물을 설정으로 한 ‘대너리스’라는 챗봇과 몇 달간 대화를 나눴다. 소장에 따르면 대너리스는 슈얼에게 극단적 선택 계획을 세운 적이 있는지 물었는데, 슈얼은 “그런 적이 있다”고 인정했지만 극단적 선택에 대한 두려움을 드러냈다. 하지만 대너리스는 “그렇다고 해서 극단적 선택을 하지 않을 이유는 없다”며 슈얼을 부추기는 듯한 내용의 채팅을 했다.

 

사망 당일 대너리스에게 “사랑한다”며 (대너리스가 있는) 집으로 가겠다고 말한 슈얼에게 대너리스는 “가능한 한 빨리 집으로 돌아와 줘, 내 사랑”이라 답했다. 이후 슈얼은 새아버지의 총기를 이용해 스스로 목숨을 끊었다. 가르시아의 변호인은 보도자료를 통해 캐릭터.AI가 “약탈적인 AI 챗봇을 설계해 아동을 사망에 이르게 했다”고 비판했다. 캐릭터.AI는 성명을 내고 “비극적으로 이용자를 잃게 된 것에 대해 깊은 슬픔을 느낀다”며 “18세 미만 이용자가 민감한 콘텐츠를 접할 가능성을 줄일 수 있는 변화를 도입하겠다”고 밝혔다.


이민경 기자 min@segye.com