역사학자이자 세계적 베스트셀러 ‘사피엔스’ 저자인 유발 하라리(사진)가 인공지능(AI)이 문명을 해킹하고 조작할 수 있다며 인류가 먼저 통제 방법을 찾아야 한다고 강조했다.
하라리는 인도적 기술 센터 공동설립자인 트리스탄 해리스, 아자 래스킨과 함께 24일(현지시간) 미국 뉴욕타임스(NYT)에 게재한 공동기고문에서 “지난해 AI 전문가 700명을 대상으로 설문조사 한 결과, 절반이 AI로 인해 인류가 멸종할 가능성이 10% 이상이라고 답했다”며 “제약회사가 엄격한 안전성 검사를 거치지 않고는 사람들에게 신약을 판매할 수 없는 것처럼 챗GPT-4 이상의 위력을 가진 AI도 너무 빠르게 인류와 얽혀서는 안 된다”고 경고했다.
필자들은 AI가 단어를 빠르게 습득하며 “문명의 마스터키를 쥐게 됐다”고 주장했다. 신화, 법, 예술, 과학 전반에 이르는 인류 문화의 핵심인 언어를 AI가 자기 것으로 만들며 인류 문명의 운영체제를 해킹하고 조작할 수 있게 됐다는 의미다. 언어를 습득한 AI가 학교 에세이뿐 아니라 정치 연설까지도 만들어낸다며 2028년 미국 대선은 더는 사람이 주도하지 않는 선거가 될 수도 있다는 전망까지 내놨다. 또 AI가 사회관계망서비스(SNS)에서 콘텐츠 생산자가 아닌 콘텐츠 큐레이터 역할을 하며 사회 양극화를 심화하는 ‘환상의 장막’을 만들었다고 분석했다.
유발 하라리 “AI, 문명 조작 가능… 통제 방법 찾아야”
기사입력 2023-03-26 21:00:00
기사수정 2023-03-26 20:34:56
기사수정 2023-03-26 20:34:56
유발 하라리, NYT 공동기고문
“너무 빠르게 인류와 얽혀선 안돼”
“너무 빠르게 인류와 얽혀선 안돼”
이예림 기자 yeah@segye.com
Copyrights ⓒ 세계일보 무단 전재 및 재배포 금지