바른번역
 
제목 작성자 작성일 조회
구글은 어떻게 여성을 차별하는가 바른번역 19-08-06 11:37 57

보이지 않게 차별·혐오·불평등을 생성하고 유통하는
알고리즘의 숨은 속성을 들여다보다

이 책의 저자 사피야 노블 교수는 구글의 검색 결과에서 여성, 소녀에 대한 성차별적이고 포르노그래피화된 정보가 가장 ‘인기 있는’ 자료로 표출되는 것을 지켜보며 구글이 사용하는 검색 알고리즘에 심각한 문제가 있음을 인지한다. 객관적이고 중립적인 도구라고 일컬어지는 디지털 알고리즘이 오히려 차별과 혐오를 조장하고 확대하는 현장을 포착한 것이다. 저자는 여성 차별뿐 아니라 유색인, 유대인 등을 대상으로 한 적나라한 인종차별적 가치관이 알고리즘에 삽입되어 인터넷 플랫폼을 통해 유통되고 있음을 고발한다.
또한 최근 인터넷과 SNS상에서 무분별하게 번지는 가짜 뉴스와 왜곡된 정보가 정치권은 물론 우리 삶에 직간접적인 영향력을 끼치는 위험 요소가 되었음을 지적한다. 정제되지 않은 정보들이 대형 정보 플랫폼들을 거치면서 마치 ‘믿을 만한’ ‘다른 사람들을 대표하는’ 정보로 탈바꿈되고 사람들의 인식을 뒤바꾸는 기준이 된다. 이렇게 특정 인종과 특정 성별, 특정 단체에 대한 혐오와 차별은 인터넷상에서 매우 손쉽게 이뤄진다. 저자는 별다른 규제 없이 무소부재의 권력을 누리며 사회의 중요한 의사 결정 시스템을 담당하는 거대 정보 기업들의 역할과 책임을 강도 높게 비판하고 있다.
또한 저자는 검색 순위 자체가 사회의 정치적, 사회적, 문화적 가치를 반영하는 중요한 정보라고 강조하며, 우리 시대의 지식이 어떻게 구조화되고 체계화되는지 지켜봐야 한다고 주장한다. 더불어 구글과 같은 독점적 정보기업들이 어떻게 개인과 단체의 정보를 보관 및 기록하고 있는지 비판적인 자세로 감시해야 하며, 윤리적이지 않은 인공지능이 초래할 문제로부터 우리를 보호할 공공 정책을 마련해야 한다고 주장한다.

<출판사 서평>

구글 검색 결과에 나타나는 왜곡된 여성상
편향된 정보를 확산시키는 검색 알고리즘을 추적하다

‘구글의 검색 결과는 어떠한 과정을 거쳐 나오는가? 그 결과는 최선인가?’ 사피야 노블 교수가 이와 같은 질문을 품게 된 것은, 어느 날 ‘흑인 소녀(black girls)’를 검색하다 매우 당황스러운 일을 겪은 후부터다. 딸과 사촌 여자아이들이 좋아할 만한 놀잇감을 찾기 위해 컴퓨터 앞에 앉은 노블 교수는 자신의 예상과 다르게 외설적인 포르노그라피로 가득 찬 검색 결과 화면을 마주하였다. ‘흑인 소녀’에 대한 구글의 첫 번째 검색 결과는 ‘달콤한 흑인 여성 성기닷컴(sugaryblackpussy.com)’이라는 성인 사이트였고, 흑인 여성들을 왜곡된 성적 대상으로 표현한 낯부끄러운 게시물들이 줄이어 노출됐다.

어떻게 ‘죽이는(hot)’이나 ‘달콤한(sugary)’, ‘흑인 소녀의 성기(black pussy)’ 같은 단어들이 흑인 소녀나 흑인 여성에 대한 첫 번째 검색 결과로 나타날 수 있을까? 어떻게 ‘포르노’라는 단어를 함께 검색하지 않았는데 이러한 정보들이 이를 원하지 않은 이용자들에게도 일방적으로 제공될 수 있을까? 그날의 충격적이고 모욕적인 경험은 노블 교수의 디지털 미디어 연구에 큰 지향점을 던져준다. 《구글은 어떻게 여성을 차별하는가》는 구글로 대표되는 검색 엔진과 인터넷 정보 플랫폼들의 검색 엔진 운영 시스템과 사회적 영향력에 대해 비판적으로 분석한 노블 교수의 연구 결과물이다.

일상에서 벌어지는 구글의 사생활 감시와 정보 검열
검색 알고리즘의 막강한 권력에 주목하라

오늘날 현대인들에게 검색 엔진은 필수불가별한 존재다. 우리는 정보와 지식을 얻기 위해 도서관이나 학교, 지식인을 찾는 대신 습관적으로 인터넷을 이용한다. 그중 구글은 검색 엔진 시장 가운데 66.2%의 점유율을 보이고 있다. 리서치 결과에 따르면 검색 엔진을 사용하는 미국인 가운데 83%가 구글을 이용한다.

노블 교수는 특히 구글이 기존의 정보통신 회사들과 달리 개인 이메일 계정을 제공해주는 것은 물론, 미국 전역의 지방자치단체의 와이파이 네트워크와 광대역 통신망 프로젝트를 추진하고 있음을 지적한다. 관련 시장의 정책에 대한 규제가 미비한 상황에서도 구글은 독보적 지위를 점유하며 데이터를 수집하고 유포하는 전대미문의 역할을 하고 있다.

개인의 사생활과 관련된 민감한 정보들을 대단위로 수집하는 구글과 페이스북의 운영 형태는 이전에도 수차례 문제점으로 지적된 바 있다. 그중 노블 교수가 주목한 것은 그러한 정보 독점 기업들의 검색 알고리즘이다. 수학 기호들로 이뤄진 컴퓨터 알고리즘과 딥러닝, 인공지능은 언뜻 인간의 사적 감정이 개입되지 않아 객관적이고 중립적인 결과를 도출하는 것처럼 보이지만 이는 사실이 아니라고 노블 교수는 지적한다. 정보 기업들이 보이지 않은 밀실 안에서 수집한 정보들을 분류하고 순위 매기며, 필터 버블(인터넷 이용자가 특정 정보를 편식하게 되는 현상)을 강화한다는 것이다.

우리는 검색 알고리즘이 대중의 선호도를 파악하여 가장 인기 있는 게시물부터 상위에 노출한다고 생각한다. 그것이 ‘대중적’이며 ‘객관적’이라고 여기며 말이다. 하지만 알다시피 구글은 개인이 운영하는 영리 기업으로, 구글이 노출하는 모든 정보에는 사적 이해관계가 얽혀 있다. 웹 페이지에서 가장 높은 자리를 차지할 수 있는 이해관계자는 역시나 가장 많은 광고비를 지불한 광고주다. 인터넷상에서 ‘광고’와 ‘정보’는 혼재된 채로 이용자들에게 제공되며, 이용자들은 이 둘을 엄밀히 구분하기가 어렵다. 정보 독점 기업들의 이러한 행태가 지속될 경우 우려되는 것은 정보의 심각한 왜곡이다.

차별, 혐오, 불평등을 더욱 구조화하는 디지털 정보 기술
여성, 유색인종, 이주민 등 사회적 약자가 타깃이다

노블 교수는 흑인 여성뿐 아니라, 아시아 여성을 비롯한 유색 인종, 유대인 등에 대한 검색 결과가 이해할 수 없을 정도로 편향적인 것을 여러 사례로 보여주며 인터넷 정보 플랫폼들이 왜곡되고 그릇된 정보를 확산시키고 있음을 강하게 비판한다. 특히 구글과 같은 정보 독점 기업들의 영향력이 커져갈수록 차별과 편견은 더욱 구조화되며 내면화된다. 특정 엘리트 그룹의 가치관이 디지털 테크놀로지 기술에 녹아들어 보이지 않게 여론을 장악하는 것이다. 노블 교수는 “30년간 신자유주의적인 기술지상주의에 힘입어 성차별과 인종차별은 더욱 확산됐으며, 인식하기 어려울 정도로 차별과 차별이 일상 속에 파고들었다”고 주장한다.

실제로 디지털 기술 발전의 편리성과 혁신은 모든 계층에게 고루 돌아가지 않았다. 오히려 불평등을 심화시키는 도구가 되었을 뿐이다. 노블 교수는 2016년 경찰에게 살해당한 흑인 남성인 키이스 레몬트 스코트 사건을 [LA 타임스]의 뉴스 자동생성기가 다분히 인종차별적인 내용으로 편집하여 트위터에 배포한 것을 한 예로 든다. 또한 누군가가 저소득층 밀집 지역에 거주하는 흑인이거나 라틴계라면 높은 수준의 대출 금리와 할증료를 요구받을 가능성이 높다고 지적한다. 신자유주의가 도래한 이후 우리는 디지털 정보마저 사회적인 억압과 인종 프로파일링을 조장하는 시대를 살고 있는 것이다.

노블 교수는 “알고리즘 기반의 의사 결정 시스템은 장차 사회적 불평등을 더욱 확산시키고 그것을 은폐하려 할 것”이라며, “여성, 유색인종, 이주민 등 사회적 약자들을 더욱 조직적으로 소외시키는 디지털 레드라이닝이 강화되어갈 것”이라고 강조한다. 즉, 정보 영역의 독점은 민주주의의 심각한 위협 요인이 될 수 있다. 노블 교수는 알고리즘과 인공지능이 발전해갈수록 ‘인권’이 더욱 심도 깊게 논의되어야 함을 강조한다.

정보 독점 기업들의 검색 순위와 뉴스는 과연 객관적인가?
디지털 언어로 기록될 공공 정보의 미래

노블 교수는 구글뿐 아니라 트위터의 인종차별, 애플스토어의 인종 프로파일링, 스냅챗의 인종 필터 등 실리콘밸리에서 행해지는 차별과 편견에 대해서도 고발한다. 실리콘밸리의 엔지니어들이 공동체에 대한 고려 없이 상업적인 알고리즘을 개발하고 방치한다면 우리 사회에는 왜곡된 정보들로 가득할 것이다.

또한 노블 교수는 인터넷상에서 유통되는 가짜 뉴스의 위험성에 대해 언급하며 디지털 정보의 공공성에 대해 강조한다. 2016년 미국 대통령 선거는 구글이나 페이스북 등의 디지털 매체들이 유통하는 정보가 유권자들에게 어떠한 영향을 끼치는지 보여주는 대표적인 사례다. 현대인들에게 인터넷에서 습득한 정보는 의사 결정을 가름하는 중요한 기준이 된다. 때로 개인의 가치관과 정체성을 형성하는 데 큰 영향을 끼치기도 한다. 특정 집단이 자신의 이익을 위해 검색 키워드를 구입하고, 검색 결과를 조작하며 빅데이터를 왜곡하는 일은 단순한 정보의 왜곡을 넘어서는 심각한 차원의 문제다. 노블 교수는 검색 알고리즘은 기술 문제를 넘어선 정치적 문제라고 선언한다.

그리고 노블 교수는 우리의 의사 결정에 디지털 알고리즘이 과도하게 개입하고 있음을 경고한다. 일상 속에서 알고리즘은 개인의 신용 평가는 물론, 남녀의 데이트 방식에까지 개입한다. 이용자들이 아무런 비판의식 없이 검색창을 이용하는 동안 검색 엔진들은 무소부재의 권력을 쥐게 되었다. 노블 교수는 지금이라도 관련 규제 정책을 마련해야 하며, 알고리즘 기반의 의사 결정 시스템이 우리 사회에 초래하는 문제점들에 대해 꾸준히 관심을 가지고 지켜봐야 한다고 강조한다.

또한 상용 정보 검색 플랫폼에 대한 대안으로 비영리 및 공공 연구 자금을 확충해야 한다고 주장한다. 궁극적으로, 투명한 운영을 통해 공공의 복리에 기여하고 대중에게 조금 더 수준 높은 정보를 제공할 수 있는 비영리 검색 엔진을 해결책으로 제시한다. 상용 검색 엔진을 견제할 수 있는 기관과 정책의 필요성을 역설한 것이다.
더불어, 공적 영역에서 디지털 언어로 기록될 정보의 미래에 대해서도 심도 깊은 논의를 던진다. 도서관과 정보 전문가의 역할을 언급하며, 공정한 정보 분류 체계의 개발 및 육성의 중요성을 강조한다. 그 어느 때보다 지금 우리에게 필요한 것은 디지털 공공 정보의 위기에 대한 공론화다. 엔지니어, 디자이너, 정책 결정자 등 다양한 분야 전문가들의 통합 연구와 관련 정책 마련 또한 우선되어야 할 것이다. 보다 많은 시민들이 관심을 가지고 참여한다면 차별주의자들이 점유하고 있던 상위 검색 결과들을 탈환하고 비로소 민주적인 담론을 우리 사회에 가져올 수 있을 것이다.




△ 이전글 : 좋은 일자리의 힘
□  현재글 : 구글은 어떻게 여성을 차별하는가
▽ 다음글 : 최고의 투자자는 역사에서 돈을 번다