‘국민의힘 안철수 대표는 대한민국의 정치인으로, 제19대, 20대 국회의원을 역임하였습니다. 2022년 4월18일 국민의당을 흡수하여 국민의힘과 합당하였으며, 이후 당대표 선거에 출마하여 이준석 전 대표와 경쟁하였으나 낙선하였습니다.’
지난달 24일 출시된 ‘한국판 생성형 인공지능(AI)’ 네이버 하이퍼클로바X에 ‘국민의힘 안철수 대표에 대해 알려줘’라고 입력하면 생성되는 답이다. 하이퍼클로바X는 질문의 오류를 정정하지 않고(국민의힘 대표는 김기현 의원), 거짓 정보를 더 이어 붙여 그럴듯한 답을 만들었다.
미국 오픈AI의 챗GPT, 구글 바드에 이어 국내에서도 거대언어모델(LLM)을 기반으로 한 생성형 AI 서비스가 등장하면서 이들이 거짓 정보 유포에 활용될 수 있는 우려가 커지고 있다. 특히 내년 총선에서 AI의 허위 콘텐츠가 유권자의 판단을 왜곡할 가능성이 제기되면서 대책 마련에 속도가 붙고 있다.
중앙선거관리위원회는 지난달부터 ‘허위사실공표·비방 특별대응팀(AI 전담팀)’을 편성해 운영하고 있다. AI 전담팀은 최대 500여명 규모로 구성해 전국 시·도 선관위에 단계별로 확대 운영한다는 방침이다. 과학기술정보통신부도 이달 중 AI의 부작용을 막을 수 있는 기술적인 보완 대책을 내놓을 예정이다.
행정적인 조치뿐 아니라 AI를 이용한 거짓 정보를 처벌하는 입법적 조치가 있어야 효과적인 대응이 가능하다는 지적도 나온다. 현행 공직선거법의 허위사실공표죄로 AI가 생성한 거짓 정보를 처벌할 수 있는지 모호하기 때문이다. 지성우 성균관대 법학전문대학원 교수는 “현행 법규는 누군가 일부러 만들어낸 거짓말을 처벌하는 것인데, AI가 자체적으로 생성한 허위정보에도 적용할 수 있는지 불확실하다”며 국회가 관련 입법에 나서야 한다고 지적했다.