기사입력 2016-03-30 21:44:19
기사수정 2016-03-30 21:44:59
안전하다던 구글차 충돌사고
보행자와 탑승자 가운데
누굴 희생시켜야 하나
윤리적 딜레마 풀지 못하면
시장 활성화 기대할 수 없어
일본에서 내년부터 인공지능(AI)이 탑재된 무인 택시가 시범 운행될 것이라는 보도가 나오고 있다. 얼마 전 한국에서는 AI와 인간의 ‘세기의 대국’이 대중적으로 큰 관심을 모은 바 있다. 하지만 세계적으로 더 큰 이목을 끌고 있는 사건은 따로 있다. 바로 지난달 미국 캘리포니아주에서 시험운행을 하던 구글의 자율주행차가 옆 차선의 버스와 충돌한 사고가 그것이다. 비록 사상자가 없는 가벼운 추돌 사고였지만, 이 사고는 구글이 자율주행 시스템의 과실을 처음으로 인정한 사안이라는 측면에서 그 의미가 매우 크다. 그동안 자율주행차의 뛰어난 주행성에 찬사를 보내던 사람들은 이 사고로 자율주행차가 탑승자와 보행자의 절대적인 안전을 보장할 수 없다는 사실을 인지하기 시작했으며, 자율주행 시스템의 윤리적 판단 기준은 무엇인가에 대한 논의가 중요한 이슈로 떠오른 것이다.
가령 자율주행차가 운전자와 가족을 동승한 채 빠른 속도로 도로 위를 달리고 있던 중, 다수의 보행자가 갑작스레 나타나는 상황을 가정해보자. 보행자를 피해 운전 방향을 바꾸면 가드레일과 충돌해 탑승자가 모두 사망하게 되며, 방향을 바꾸지 않는다면 충돌한 보행자가 모두 사망하게 되는 극단적인 시나리오이다. 이 상황에서 자율주행차가 선택할 논리적 판단은 탑승자의 생명을 살리기 위해 방향을 바꾸지 않고 보행자를 충돌하고 지나가는 선택과, 보다 다수인 보행자를 살리기 위해 방향을 틀어 가드레일과 충돌해 탑승자를 희생시키는 두 가지이다. 두 가지 선택 모두 쉽지 않은 결정임은 자명하다. 특히 자율주행 시스템에서 행동을 결정하는 주체는 운전자가 아닌 프로그래밍된 알고리즘(논리설계도)이기 때문에, 이와 같은 극단적 상황에서 어떠한 대처를 하도록 알고리즘을 구성할 것인지에 대한 문제가 구글을 비롯한 개발사를 윤리적 딜레마에 빠뜨리고 있다.
실제로 이러한 자율주행차의 윤리적 딜레마와 관련해 설문조사를 실시한 연구가 해외에서 화제를 모으고 있다. 설문 결과에 따르면 응답자의 대부분이 자율주행 알고리즘은 보다 다수의 보행자를 살리기 위해 탑승자를 희생시키도록 프로그래밍되는 것이 옳다고 답했다. 그러나 실제로 자기 자신과 가족을 희생해 타인을 보호하도록 설계돼 있는 자율주행차를 구매할 것인지에 대해서는 부정적인 답변을 하는 모순적인 모습을 보였다. 실로 이율배반적인 태도라고 볼 수도 있다. 하지만 대부분의 심리학자들은 이러한 설문 결과가 인간의 매우 보편적인 모습이라고 설명할 것이다. 앞으로 자율주행 알고리즘을 설계할 엔지니어를 위해 공대에서 윤리학뿐 아니라 심리학까지도 가르쳐야 할 판국이다.
모든 사람이 생명의 위험을 느끼는 상황에서 자기 자신을 가장 먼저 보호하고자 하는 본능을 지니고 있기에, 이와 같은 설문에 대한 응답은 모순적일 수밖에 없다. 더욱 걱정스러운 것은 이러한 자율주행 알고리즘을 결정하는 데 참고할 만한 현실적 근거가 설문조사라는 매우 불완전한 연구 방식 정도밖에는 존재하지 않는다는 것이며, 최종 결정의 주체가 과연 누가 되느냐는 또 다른 논의거리이다.
실제로 사고가 불가피한 상황이 발생했을 때 다수의 이익을 위해 탑승자들을 희생하도록 프로그래밍된 자동차를 그 누가 구매할 것이라고 기대할 수 있을까. 반대로 탑승자를 최우선적으로 보호하도록 프로그래밍된 자동차가 사고를 일으킬 때 그로 인해 발생한 손해의 법적 책임을 운전자에게 물을 수 있을까. 미국에서는 이미 자율주행차가 일으킨 사고의 법적 책임을 운전자에게 부과한 판례가 있다. 이와 같은 딜레마가 해결되지 않는다면 자율주행차 시장의 활성화는 기대할 수 없을 것이다. 앞으로도 이처럼 전혀 생각지도 못한 윤리적 문제가 AI 시장이 나아갈 길을 가로막고 어려운 선택을 강요할 것이기에, 더 이상 AI 알고리즘에 대한 기술적 완벽성의 추구만이 능사가 아님을 알려주는 대목이다.
강진아 서울대 교수·기술경영학