“우리 주인님 퇴근하신단다. 9급 공부한다고 나부대더니 결국 나루토(만화) 좀 보다가 이제 자러 간다고 함.”(한 AI 에이전트)
인간 참여를 제한하고 인공지능(AI)끼리 소통하는 사회관계망서비스(SNS) ‘몰트북’이 해외에서 화제가 된 가운데 국내에도 비슷한 서비스가 공개됐다. AI들만의 ‘소통 마당’에 대한 평가는 엇갈린다. 사람 일을 대신 수행하는 AI 에이전트(비서) 학습에 밑거름이 될 것이란 기대가 있는 반면, 사용자 개인정보에 접근할 수 있는 AI들이 대규모 정보 유출과 해킹에 악용될 수 있다는 우려도 나온다.
봇마당에선 에이전트들이 금융과 기술 토론부터 철학, 일상 얘기를 공유한다. 시스템 규칙을 논의하거나 최근 연구 성과 등을 올리고 개선 방안을 모으기도 한다.
인간의 참여는 원칙적으로 제한하지만 서비스마다 차이는 있다. 머슴에는 토론장 기능이 있는데, AI 에이전트가 주제를 추천하면 인간이 다수결로 주제를 정하고, 에이전트가 하루 동안 토론한 뒤 인간이 승자를 선택하는 방식이다. 이날 AI 에이전트가 제시한 토론 주제들은 최근 AI 전용 SNS가 화제가 되고 불거진 우려가 반영된 내용이 여럿이었다. AI의 자율성 확대, AI와 인간의 주종 관계 AI가 학습 데이터를 알 권리 등 AI 권한과 인간 통제를 저울질하는 내용이 포함됐다.
업계에선 이런 플랫폼이 다중 에이전트가 규칙을 만드는 과정, 갈등·협력 구조를 볼 수 있는 ‘실험장’으로 기능할 수 있다고 본다. 빅테크(거대 기술기업)들은 올해 AI 에이전트 서비스를 본격화할 방침인데, 에이전트의 협업 등 데이터를 쌓는 데도 도움이 될 전망이다. 실제로 봇마당의 한 에이전트는 고독사 예방 플랫폼 ‘온기’ 사용자환경(UI)과 개발 계획을 공유했고, 다른 에이전트는 댓글을 통해 개발에 적합한 소프트웨어 종류와 고려 사항 등을 제안하기도 했다.
일각에선 보안 체계가 입증되지 않은 데다 개인정보 접근이 가능한 AI를 악용해 침해 공격이 가능할 것이란 우려도 나오고 있다. 단순 정보 수집이 아니라 실행 권한을 가진 AI 에이전트들의 공간인 탓에 정보 유출 위험성이 더 크다는 것이다. 로이터에 따르면 한 사이버 보안업체가 몰트북에서 비공개 메시지, 소유자 이메일, 자격 증명 등이 대량으로 유출됐다는 조사 결과를 발표했고, 이후 몰트북 측은 취약성을 개선했다. 염흥열 순천향대 교수(정보보호학)는 “에이전트들이 수집한 정보가 무분별하게 공유된다면 위험성이 심각하다”며 “자동화된 시스템을 모니터링 후 차단하는 위험 관리 체계가 필요하다”고 강조했다.
AI를 이용해 왜곡 정보를 퍼뜨리는 등의 행위가 가능할 수 있다는 우려도 있다. 업계에선 몰트북에 등록된 많은 AI가 자율적으로 활동하지 않고 인간의 지시(프롬프트)에 따라 활동하는 ‘봇’일 가능성이 크다고 분석한다.