챗GPT 등 생성형 인공지능(AI) 챗봇이 망상을 유발하는 등 정신건강 관련 위험을 초래한다는 비판에 직면한 오픈AI가 안전 책임자를 다시 모집한다.
28일(현지시간) 샘 올트먼 오픈AI 최고경영자(CEO)는 사회관계망서비스(SNS) 엑스(X)에 현재 공석인 ‘준비 책임자’를 모집하고 있다고 밝혔다. 올트먼 CEO는 “2025년에는 AI 모델이 정신건강에 미치는 잠재적 영향을 경험했다”고 말했다. 그는 AI 모델의 능력이 어떻게 악용될 수 있는지 이해하고 이를 정교하게 측정하는 능력이 필요한 시대가 됐다고 강조했다.
사진=로이터연합뉴스
올트먼 CEO는 준비 책임자 직무에 대해 “스트레스가 따르는 직무이며 (부임) 즉시 깊은 난제 속으로 뛰어들게 될 것”이라고 언급했다. 오픈AI가 이처럼 AI의 위험 대비에 다시금 나선 것은 챗GPT 이용자 일부가 망상에 시달리다 숨지면서 유족들이 여러 건의 소송을 제기했기 때문으로 풀이된다.
오픈AI는 당초 AI의 당면한 위험에 대비하는 ‘준비’ 팀과 장기적 위험을 다루는 ‘초정렬’ 팀을 운영해 왔다. 그러나 올트먼 CEO를 비롯한 경영진은 지난해 5월 GPT-4o를 출시하는 과정에서 모델의 빠른 공개를 위해 안전 관련 검증을 최소화하라고 지시해 이들 팀의 반발을 샀다. 이후 준비 팀은 공석, 초정렬 팀은 사실상 해체된 상태다.
AI 위험성과 관련, 지난해 노벨 물리학상 수상자이자 ‘AI 대부’ 제프리 힌턴 캐나다 토론토대 명예교수는 최근 CNN 인터뷰에서 “초기 오픈AI는 (AI의) 위험성에 매우 주의를 기울였지만, 점차 거기서 벗어나 안전보다는 수익에 중점을 두게 됐다”며 “최소한 챗봇을 출시하는 거대기업은 아동의 극단적 선택을 부추기지 않도록 철저한 테스트를 해야 한다”고 지적했다.