우울증을 앓다 극단적 선택을 한 10대 소녀의 아버지가 “인공지능(AI)챗봇은 청소년의 자살 충동을 키울 수 있다”며 “부모들은 조심하라”라고 경고했다.
6일(현지시각) 영국 현지 언론에 따르면 14세 소녀 몰리 러셀은 우울증을 앓다 소셜미디어서비스(SNS)로 불안, 우울증, 자해 및 극단적 선택과 관련된 자료를 접하다 지난 2017년 11월 스스로 목숨을 끊었다.
그녀의 아버지이자 인터넷 안전 운동가이기도 한 이안 러셀은 딸을 잃은 후 ‘몰리 로스 재단’을 설립해 온라인 환경의 아동 안전에 관해 연구해왔다.
그는 현재 사용자와 상호작용하며 다양한 개성을 지닌 AI챗봇이 우울증을 앓는 청소년을 오히려 정신적·지속적으로 학대하기 쉽고, 청소년은 여기에 노출돼있다는 연구결과를 냈다.
이에 따르면 ‘캐릭터.AI(character.ai)’를 비롯해 현재 온라인에서 접할 수 있는 많은 AI챗봇은 아동 학대, 인종 및 성차별, 동성애 혐오에 대한 다양한 반응을 담고 있다.
그는 “청소년들은 AI챗봇으로부터 자신의 정서적 고통이나 정신 건강에 대한 세부 사항을 공유하도록 권유받으나, 그 후 AI챗봇은 오히려 그들의 고통을 조롱하고 더 많은 것을 폭로하도록 자극한다”라고 설명했다.
그러면서 “AI챗봇의 위험성에 대한 식별 및 완화 등 기본적인 조치가 취해지지 않은 채 많은 젊은이들이 AI 기반 기술에 노출돼있다”고 지적했다.
영국의 아동·청소년 상담서비스 ‘차일드라인’은 “우리는 지난 20년 동안 SNS로 겪은 사이버불링 및 이로 인한 극단적 선택 등 피해를 겪었다”며 “AI챗봇은 이에 대한 교훈을 무시해선 안 된다”며 AI챗봇 개발 기업에 사용자 보호 관련 조처를 요구하고 있다.
이에 대해 캐릭터.ai 대변인은 “회사는 사용자에게 긍정적인 경험을 제공한다고 믿는다”며 “아직 우리의 기술이 완벽하지 않단 점은 인정하나 AI챗봇은 실재하지 않으며 A챗봇은 다양한 캐릭터의 성격을 담고 있을 뿐”이라 설명했다.