오픈AI, 새 버전 ‘GPT-4’ 공개… 챗봇 기능 ‘업그레이드’

AI 챗봇 무한경쟁시대 돌입

더 창의적이고 미묘한 명령 처리
이전 모델보다 오답 등 줄어들어
모의 변호사시험 상위 10% 성적
MS 검색엔진 ‘빙’에 탑재 상용화
진화 불구 ‘부정확성’ 문제는 여전

세계적 열풍을 일으킨 생성형 인공지능(AI) 챗GPT의 개발사인 오픈AI가 개선된 새 버전의 인공지능 툴을 공개했다고 미국 뉴욕타임스(NYT), 워싱턴포스트(WP) 등 외신이 14일(현지시간) 보도했다.

 

이날 공개된 GPT-4는 챗GPT에 적용된 대규모 AI 언어모델(LLM)인 GPT-3.5의 업그레이드 버전이다.

 

오픈AI는 “평소 대화에서는 GPT-3.5와 차이가 크게 나지 않을 수 있다”면서도 “GPT-4는 훨씬 더 신뢰할 수 있고 창의적이며 더 미묘한 명령을 처리할 수 있다”고 밝혔다.

 

또 이전 모델보다 질문에 대한 오답이나 주제를 벗어난 답이 적다며 많은 표준화한 시험에서 인간보다 더 좋은 성적을 낼 것이라고 덧붙였다. 그러면서, 미국 모의 변호사 시험에서는 90번째, 대학 입학 자격시험인 SAT 읽기와 수학 시험에서는 상위 10%에 해당하는 각각 93번째와 89번째의 백분위 수를 기록했다고 강조했다.

 

2019년부터 오픈AI에 투자를 시작해 최근에는 100억달러(약 13조원)로 추정되는 투자를 발표한 마이크로소프트가 이날 자사의 검색 엔진 ‘빙’에 GPT-4를 탑재한다고 밝혀 새 버전은 곧바로 시장에서 활용될 수 있게 됐다.

 

NYT는 “인터넷에서 수집한 방대한 양의 데이터를 분석하여 기술을 학습하는 GPT-4는 여러 가지 면에서 기존 챗GPT의 기능을 개선했다”고 평가했다. GPT-4가 GPT-3.5보다 더 정확하고, 세밀한 묘사도 할 수 있으며, 어느 정도의 추론까지 가능하다는 것이다.

 

다만, 모든 AI 챗봇(대화형 메신저)이 안고 있는 ‘헐루시네이션’이라는 근본적 문제를 여전히 극복하지 못했다고 지적했다.

사진=EPA연합뉴스

헐루시네이션은 ‘환상’이라는 뜻이지만 AI 업계에서는 인공지능이 오류가 있는 데이터를 학습해 틀린 답변을 맞는 말처럼 제시하는 현상을 지칭하는 용어로 쓰인다.

 

NYT는 “시스템은 무엇이 진실이고 무엇이 거짓인지에 대한 이해가 없기 때문에 완전히 거짓인 텍스트를 생성할 수 있다”면서 “최신 암 연구를 설명하는 웹사이트 주소를 요청하면 존재하지 않는 인터넷 주소를 생성하는 경우도 있었다”고 전했다.

 

오픈AI도 새 버전 발표와 함께 공개한 기술보고서에서 “여러 진전에도 GPT-4는 이전 모델과 동일한 한계를 가지고 있다. 가장 중요한 것은 여전히 결과를 완전히 신뢰할 수 없다는 것”이라면서 “GPT-4는 헐루시네이션으로 인해 답을 지어내며 추론 오류를 범하기도 한다”고 인정했다.

 

이런 AI의 부정확성에 대해 NYT는 “컴퓨터가 인간보다 더 정확하다는 생각에 기반한 테크업계에서 이 기술에 미래를 걸고 있는 기업들은 당분간은 오랫동안 금기시됐던 부정확성을 감수해야 할 수도 있다”고 분석했다.

 

WP도 “AI 언어모델은 실제 사실이 아니라 그럴듯한 문구를 뱉어내도록 설계되었기 때문에 자신 있게 오답을 제시하는 경우가 많다”면서 “또한 인터넷의 정제되지 않은 텍스트와 이미지를 학습했기 때문에 인종, 성별, 종교, 계급에 대한 인간의 편견을 모방할 수 있다”고 우려했다.

 

WP는 오픈AI 전직 연구원이자 현재 오픈소스 AI 회사인 허깅 페이스의 정책 책임자인 아이린 솔라이먼의 발언을 인용해 “AI는 발전 속도가 빠르기 때문에 잠재적인 함정에 대한 긴급한 대응이 필요하다”고 적었다.