2009년 유튜브에 게시된 짧은 영상 하나가 기술의 민낯을 드러냈다. 휴렛팩커드 노트북에 내장된 얼굴 인식 소프트웨어가 흑인 남성 데시의 얼굴은 인식하지 못한 반면, 그의 동료 백인 여성에게는 즉각 반응한다. 데시가 붙인 영상의 제목은 다음과 같았다. ‘휴렛팩커드 컴퓨터는 인종차별주의자.’
한때 인터넷은 민주주의와 평등을 약속했다. 사이버공간에서는 성별·인종·계급의 차이가 사라질 것이라 믿었다. 그러나 감시와 분열, 차별을 낳는 알고리즘 앞에서 기업들은 사건·사고가 터질 때마다 “의도치 않은 일”이라고 변명한다. 저자는 이것이 우발적 실패가 아니라 애초에 그런 결과를 향해 설계된 시스템의 필연이라고 말한다.
웬디 희경 전/김지훈 옮김/ 워크룸프레스/ 2만9000원
책은 현재의 기계학습과 알고리즘에 인간의 편견과 차별이 어떻게 내재하여 있는지 이해하는 작업이다. 저자가 사용하는 핵심 개념은 ‘상관관계’와 ‘동종선호’다. 상관관계란 두 변수가 함께 움직이는 정도를 나타내는 통계 개념으로, 오늘날 빅데이터 분석의 토대다. 그러나 저자는 이 개념의 뿌리를 19세기 말 우생학에서 찾는다. 빈곤층과 소수자를 측정·분류·관리하기 위해 고안된 상관관계는 전통적 인과관계를 대체하기에 이르며 오늘날 알고리즘의 핵심 논리가 됐다.
소셜 미디어와 추천 알고리즘의 기본 전제로 작동하는 동종선호 역시 마찬가지다. ‘비슷한 사람끼리 어울린다’는 이 자연스러운 개념에는 실은 인종 분리를 전제로 한 1950년대 미국 사회과학의 편향된 연구가 숨어 있다. 이 두 개념은 오늘날 네트워크를 개방된 광장이 아니라 분열된 ‘빗장 공동체’로 만든다. 알고리즘은 차이를 줄이는 대신, 상관관계와 유사성을 근거로 사람들을 더욱 정교하게 무리 짓는다.
캐나다 사이먼 프레이저 대학교 커뮤니케이션 학부 교수인 저자는 미디어, 네트워크 기술, 빅데이터를 둘러싼 기술적·인식론적 통찰을 바탕으로 북미 비판적 디지털 미디어 연구를 이끌어온 학자다. 1세대 이민자 여성으로서 겪은 차별의 경험은, 우리가 중립적으로 여겨 온 기술과 지식 체계 속에 정치가 내재해 있음을 인식하게 한 출발점이었다.
저자는 기술이 ‘맹목적’이며 따라서 공정하다는 근본적인 믿음을 설득력 있게 무너뜨린다. 문제는 데이터의 편향에 그치지 않는다. 현재의 기계학습과 알고리즘에는 인간의 편견과 차별이 데이터뿐 아니라 절차와 예측, 설계의 출발점과 작동 논리 전반에 걸쳐 구조적으로 내재해 있으며, 이를 이해할 때에만 다른 미래가 가능하다고 저자는 말한다.