생성형 인공지능(AI) 열풍을 주도하고 있는 오픈AI가 자사 AI 도구인 챗GPT와 ‘달리’(Dall-E)가 선거에 악용되는 것을 막기 위해 정보 출처를 제공하는 방안 등을 마련했다. 2024년 한 해 동안 미국 대선을 포함해 전 세계 수십 개 국가에서 중요한 선거가 예정된 가운데 AI 기술을 이용한 선거 관련 가짜 뉴스에 대한 우려가 커지자 대응에 나선 것이다.
15일(현지시간) 오픈AI에 따르면 향후 챗GPT에서 제공된 선거 관련 정보에는 어디에서, 누구에 의해 만들어졌는지 출처가 표시된다. 이미지 생성 AI인 달리 역시 출처가 생성 결과에 함께 포함된다.
오픈AI는 이와 함께 달리가 제공하는 이미지에 대한 검증도 강화하기로 했다. AI를 기반으로 얼굴 등을 실제처럼 조작한 ‘딥 페이크’ 이미지가 선거에 악용될 수 있다는 우려가 커지고 있기 때문이다.
어떤 이미지가 달리에 의해 생성됐는지 여부를 확인할 수 있는 ‘이미지 찾기 도구’도 출시된다. 이미지 찾기 도구는 미디어와 연구자 등에게 우선 배포돼 피드백을 받을 예정이며 달리가 제공한 이미지에 이를 확인하는 워터마크가 표시된다.
‘선거의 해’를 맞아 AI 기술을 보유한 기업들은 자사의 기술이 선거에 악용되는 것을 막기 위해 대책을 속속 내놓고 있다. 구글은 지난달 자사 AI 챗봇 ‘바드’와 AI 검색 기능이 답변할 수 있는 선거 관련 질문을 제한하기로 했다.
또 선거 광고가 AI를 사용한 경우 광고주가 이 사실을 눈에 띄게 표시하도록 해 유권자들이 바로 식별할 수 있도록 했다.
페이스북과 인스타그램을 운영하는 메타도 정치 캠페인을 구매한 광고주가 AI를 사용했는지 여부를 공개하도록 요구할 방침이다.
오픈AI는 “공정한 선거를 위해 모든 것은 민주적인 과정으로 이뤄져야 한다”며 “우리의 기술이 이 과정을 훼손하는 것을 원치 않는다”고 밝혔다.