인공지능(AI) 기술의 선두주자인 오픈AI와 구글 딥마인드 전현직 직원 13명이 공동 성명을 통해 AI의 위험을 경고하고, 기업들이 이 같은 위험을 간과하고 금전적인 이익을 앞세우고 있다고 지적했다. 이들은 내부고발자 보호를 당부했다.
![](http://mimg.segye.com/content/image/2024/06/05/20240605514986.jpg)
4일(현지시간) 뉴욕타임스(NYT) 등에 따르면 이들은 ‘진보된 AI에 대해 경고할 권리’라는 이름의 성명을 내고 “AI 시스템은 적절한 규제 없이는 심각한 위협을 야기할 수 있을 만큼 강력하다”며 “이 같은 위험은 존재하는 불평등을 심화하는 것부터 조작과 가짜정보, 잠재적으로 인간의 멸종을 초래하는 자율적 AI 시스템의 통제 상실까지 다양하다”고 지적했다.
이들은 “AI 기업은 이윤 추구를 목표로 제대로 된 감독을 하지 못하고 기업의 내부 규제 시스템만으로는 문제를 해결할 수 없다”며 “AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, (이들이) 자발적으로 공유할 것이라고 생각하지 않는다”고 강조했다.
이 공동 성명에는 오픈AI 전현직 직원 각각 7명과 4명, 구글 딥마인드 전현직 직원 각 1명이 이름을 올렸다. 윌리엄 선더스, 캐럴 웨인라이트, 제이컵 힐턴, 대니얼 지글러 등 오픈AI를 떠난 직원들은 이름을 밝혔지만 현직자를 포함해 6명은 익명을 요구했다. 이들은 “전현직 직원들은 대중에게 책임을 느끼는 몇 안되는 사람 중 하나이지만 회사와 광범위한 기밀유지 계약으로 우려를 표명할 수 없다”면서 내부고발자 보호를 촉구했다.
린지 홀드 오픈AI 대변인은 성명을 통해 “우리는 이 기술의 중요성을 고려할 때 엄격한 토론이 중요하다는 것에 동의한다”며 “전 세계의 정부, 시민사회 및 다른 지역 사회와 계속 협력할 것”이라고 밝혔다.
최근 오픈AI에서는 회사와 AI 기술 이용의 방향성을 놓고 내부 동요가 큰 것으로 알려졌다. 오픈AI는 챗GPT를 활용한 성인물 제작 허용을 검토하고 있으며, AI 안전성 연구팀인 슈퍼얼라인먼트 팀을 해체했다. AI 활용에서 책임을 우선할 것인지, 수익 창출에 더 집중할 것인지를 놓고 오픈AI 최고경영자(CEO)인 샘 올트먼과 갈등을 빚은 것으로 알려진 일리야 수츠케버 오픈AI 전 최고과학자는 회사를 떠났다. 회사 내에 견제 세력이 없다는 뜻이다. 이런 상황에서 오픈AI 직원들이 퇴사 시 회사를 비방할 경우 기존에 받았던 주식 등을 몰수당할 수 있다는 기밀유지계약서에 강제로 서명해야 했다는 폭로가 최근 나온 바 있다.