기사입력 2018-11-02 13:18:04
기사수정 2018-11-02 13:18:04
운전대를 잡지 않아도 알아서 씽씽 달리는 차 안. 잔뜩 구겨진 내 표정을 차가 눈치챘나보다. 말을 걸어온다. “힘내. 무슨 일 있어?” 차와 몇마디 나누니 기분이 누그러진다. 신작 게임을 앞유리에 띄워본다. 스쳐가는 가로수마다 열대과일이 주렁주렁 달려 있다. 물론 가상 과일이다. 손가락을 공중에서 휙휙 움직이자 과일들이 팡팡 터진다. 게임에 열중하는데 갑자기 들리는 빗소리. 신경 쓸 필요 없다. 열려진 창은 알아서 닫히고, 서늘해진 공기를 데울 히터도 곧 작동할 터다.
자율주행차와 신기술이 만났을 때 가능한 미래다. 다소 못미덥지만, 마냥 뜬구름 잡는 얘기도 아니다. 지난 1일 문화체육관광부 주최, 한국콘텐츠진흥원 주관으로 서울 홍릉 콘텐츠문화광장에서 열린 ‘11011101 콘텐츠임팩트2018’ 행사에서는 현재 나온 기술들과 문화적 상상력을 결합해 자율주행차에서 보낼 시간을 그려보는 자리가 마련됐다.
‘차 안에서 운전할 필요가 없어질 때 남는 시간에 무엇을 할까’는 현재 산업·문화계가 공통으로 가진 화두다. 전문가들은 자율주행 기술이 완성될 경우 미래 차량은 문화콘텐츠를 즐기는 공간이 될 것이라 예상한다. 이날 시연에서 스타트업 브이터치는 가상터치 기술을 차량에 적용해 ‘움직이는 놀이 공간’을 선보였다. 가상터치는 스크린을 향해 공기 중에 손을 움직이는 것만으로 마우스 조작과 같은 효과가 나는 기술이다. 시연회에서 의자에 앉은 브이터치 김석중 대표가 무대 뒤 스크린 쪽으로 손가락을 움직이자 영화와 음악이 재생됐다. 빨리 감기·되감기도 됐다. 김 대표는 이 기술을 활용해 움직이는 차 앞 유리에 주변 풍경과 결합한 증강현실 게임을 즐기는 방안을 제시했다. 주변 나무에 나타나는 동물을 잡거나, 건물을 격파하는 식이다.
자동차가 소리를 듣는다면 어떤 일이 가능해질지 가늠하는 시연도 열렸다. 코클리어닷에이아이 한윤창 대표는 “자율주행차가 앰뷸런스 소리를 들은 뒤 주변 환경을 분석하고, 현재 지나가는 길에 어울리는 음악을 추천해주는 것도 가능할 것”이라고 말했다. 이날 시연 영상에서는 새들이 지저귀는 숲길을 달리자 자율주행차에서 평화로운 피아노 음악이 나오고, 빗방울이 부딪치자 쇼팽의 ‘빗방울 전주곡’이 흘렀다.
제네시스랩은 인공지능이 차량 탑승자의 표정을 분석해 말을 건네는 서비스를 제안했다. 이 회사는 얼굴 표정에서 7가지 감정, 음성에서 4가지 감정을 추출해 구직자 행동을 분석하는 서비스를 제공하고 있다. 이를 인공지능의 대화 기술과 결합할 경우 탑승자가 “이번 시험 망했어”라며 찡그리면 인공지능이 “괜찮아, 못 볼 수도 있지”하고 위로하는 일상이 가능해진다. 다만 논리와 규칙이 명확하지 않은 일상 대화는 아직 머신 러닝으로 완벽하게 구현하기 어려운 분야다. 제네시스랩 이영복 대표는 이미지 분석 기술로 시도해볼 수 있는 서비스에 대해 “나만 좋아하는 콘텐츠를 자동 실행하거나 개개인을 식별할 수 있는 고유 웃음으로 카쇼핑 결제를 진행할 수 있고 원격 진료도 가능할 것”이라고 밝혔다.
폴라리언트는 GPS가 작동하지 않는 실내나 터널에서도 센서를 활용해 자율주행이 가능한 기술을 선보였다. 이 기술이 완성되면 자율주행차가 능숙하게 지하 주차를 할 수 있게 된다.
송은아 기자
sea@segye.com, 사진=한국콘텐츠진흥원 제공