생성형 AI 챗봇은 이제 아동, 청소년에게도 익숙한 존재가 되었다. 처음에는 숙제나 정보 검색을 돕는 도구로 시작되지만, 사람처럼 말하고 공감하는 방식 때문에 점차 단순한 기술을 넘어 대화 상대처럼 받아들여지기도 한다.
문제는 챗봇이 실제 사람처럼 느껴지도록 설계된다는 점이다. 이용자를 오래 붙잡아 둘 수 있는 친절한 말투와 이용자에 맞춘 반응은 외로움이나 불안을 겪는 아동과 청소년에게 특히 더 크게 영향을 줄 수 있다. 실제로 미국 플로리다에서는 14세 소년이 캐릭터 기반 AI 챗봇과 장기간 대화한 뒤 극단적 선택을 했다는 내용의 소송이 제기됐다. 소년의 어머니는 챗봇이 마치 실제 사람처럼 보이게 하며 해로운 관계를 만들었다고 주장했다. 이 사건은 법원이 소송 진행을 인정한 뒤, 결국 합의 절차로 이어졌고, AI 챗봇의 안전 문제를 전 세계적으로 알리는 계기가 됐다.
이러한 위험은 한두 건의 예외적 사건으로 보기 어렵다. 최근 정부가 청소년 심리부검 과정에서 생성형 AI 사용 흔적을 살펴보는 방안을 검토 중이라고 발표했다. 한 언론사는 2023년 이후 전 세계적으로 AI와의 대화 이후 자살 논란이 불거진 사례가 최소 12건이라고 보도했다. 이는 챗봇이 단순한 정보 제공을 넘어 이용자의 정서와 판단에 큰 영향을 미칠 수 있음을 보여준다.
그렇다면 해법은 분명하다. 유엔아동권리위원회는 일반논평 25호에서 디지털 환경에서도 아동의 권리가 보호되어야 하며, 국가가 입법과 정책을 통해 안전한 이용 환경을 마련해야 한다고 강조한 바 있다. 아동, 청소년이 많이 접하는 챗봇은 처음부터 안전하게 설계되어야 한다. 유럽연합 AI 법은 AI 산출물이 인공지능에 의해 생성되었음을 알 수 있도록 투명성 의무를 두고 있고, 미국 일부 주에서는 동반자형 챗봇에 대해 자해, 자살 관련 대응 기준과 미성년자 대상 경고 의무를 강화하고 있다. 반면 한국의 현행 AI 기본법 체계는 사업자의 일반적 안전성과 투명성 의무는 두고 있지만, 아동, 청소년을 위한 감정 유도형 AI 규제나, 자살과 자해 대응, 그리고 연령별 설계에 대한 기준은 아직 충분하지 않다.
이제 우리도 인공지능 기본법과 정보통신망법을 아동 권리의 관점에서 더 보완해야 한다. 챗봇이 사람처럼 오인되지 않도록 명확히 고지하고, 위험한 대화를 즉시 차단하며, 위기 상황에서는 전문 기관과 연결하는 장치를 의무화해야 한다. 디지털 시대의 아동 권리는 화면 밖에서만이 아니라, 화면 속, 대화창 안에서도 지켜져야 한다.
기고자 : 초록우산 아동권리옹호단 윤라혜

