가령 자율주행차가 운전자와 가족을 동승한 채 빠른 속도로 도로 위를 달리고 있던 중, 다수의 보행자가 갑작스레 나타나는 상황을 가정해보자. 보행자를 피해 운전 방향을 바꾸면 가드레일과 충돌해 탑승자가 모두 사망하게 되며, 방향을 바꾸지 않는다면 충돌한 보행자가 모두 사망하게 되는 극단적인 시나리오이다. 이 상황에서 자율주행차가 선택할 논리적 판단은 탑승자의 생명을 살리기 위해 방향을 바꾸지 않고 보행자를 충돌하고 지나가는 선택과, 보다 다수인 보행자를 살리기 위해 방향을 틀어 가드레일과 충돌해 탑승자를 희생시키는 두 가지이다. 두 가지 선택 모두 쉽지 않은 결정임은 자명하다. 특히 자율주행 시스템에서 행동을 결정하는 주체는 운전자가 아닌 프로그래밍된 알고리즘(논리설계도)이기 때문에, 이와 같은 극단적 상황에서 어떠한 대처를 하도록 알고리즘을 구성할 것인지에 대한 문제가 구글을 비롯한 개발사를 윤리적 딜레마에 빠뜨리고 있다.
강진아 서울대 교수·기술경영학 |
모든 사람이 생명의 위험을 느끼는 상황에서 자기 자신을 가장 먼저 보호하고자 하는 본능을 지니고 있기에, 이와 같은 설문에 대한 응답은 모순적일 수밖에 없다. 더욱 걱정스러운 것은 이러한 자율주행 알고리즘을 결정하는 데 참고할 만한 현실적 근거가 설문조사라는 매우 불완전한 연구 방식 정도밖에는 존재하지 않는다는 것이며, 최종 결정의 주체가 과연 누가 되느냐는 또 다른 논의거리이다.
실제로 사고가 불가피한 상황이 발생했을 때 다수의 이익을 위해 탑승자들을 희생하도록 프로그래밍된 자동차를 그 누가 구매할 것이라고 기대할 수 있을까. 반대로 탑승자를 최우선적으로 보호하도록 프로그래밍된 자동차가 사고를 일으킬 때 그로 인해 발생한 손해의 법적 책임을 운전자에게 물을 수 있을까. 미국에서는 이미 자율주행차가 일으킨 사고의 법적 책임을 운전자에게 부과한 판례가 있다. 이와 같은 딜레마가 해결되지 않는다면 자율주행차 시장의 활성화는 기대할 수 없을 것이다. 앞으로도 이처럼 전혀 생각지도 못한 윤리적 문제가 AI 시장이 나아갈 길을 가로막고 어려운 선택을 강요할 것이기에, 더 이상 AI 알고리즘에 대한 기술적 완벽성의 추구만이 능사가 아님을 알려주는 대목이다.
강진아 서울대 교수·기술경영학