빅데이터 혁신융합대학

Bigdata University

Bigdata University

Contents Module

[알쓸빅잡]빅데이터, 젠더를 알아야 하는 이유

등록일 2022-11-28

[연재기고]

빅데이터로 본 젠더 이슈

빅데이터와 젠더가 무슨 상관일까?

- 모두를 위한 페미니즘, 모두를 위한 빅데이터



KhXjlXQHInAAAAAElFTkSuQmCC


최정호

빅데이터 혁신공유대학 사업단 / 법학박사


2018년 유엔은 <젠더 평등과 빅데이터(Gender Equality and Big Data)>라는 제목의 보고서를 발간했습니다.


      j4QSAAAAWVjrBwAAQBYSSgAAAGQhoQQAAEAWEkoAAABkIaEEAABAFhJKAAAAZCGhBAAAQAaRa6Rkt920mbr6AAAAAElFTkSuQmCC

[그림 1] <젠더 평등과 빅데이터> 보고서와 설명 (출처: 유엔 여성위원회 홈페이지 갈무리)

빅데이터 분석은 말 그대로 대량의 데이터를 가지고 분석하는 기술이니 젠더 평등의 문제와 무관해 보일 수 있지요. 하지만 대량의 데이터가 오류투성이라면 이야기가 달라집니다. 데이터로 분석을 해봤자 잘못된 결과가 나올 거고, 이 데이터를 가지고 학습한 AI도 위험할 수 있으니까요. 또 빅데이터를 포함한 고도의 기술과 관련된 직종에 여성 과학자가 충분하지 않다면 실험의 설계에서부터 분석에 이르기까지 젠더 다양성을 반영하지 못하며 잘못된 결론에 이를 수 있어요.

지난 8월 국가인권위원회는 제4차 국가인권정책기본계획(NAP) 권고안을 발표했어요. NAP는 인권보호와 증진을 위해 수립하는 것인데 인권위가 권고하면 정부가 인권위 권고를 토대로 의견을 수립하고 시행합니다. 제3차 NAP(2018~2022)는 올해를 마지막으로 끝나기 때문에 2023~2027년의 계획을 새로 만들 때가 된 것이에요. 그런데 여기에 포함된 100가지 핵심과제 중 78번째 과제 ‘인공지능 인권영향평가 실시’에서는 이런 말이 등장합니다. “인공지능에 관한 국내외 인권 기준은 … 특히 막대한 양의 빅데이터를 분석하고 학습하는 과정을 통해 다양한 영역으로 확대되는 인공지능의 특성상 편견이나 차별을 조장하거나 지속시킬 위험성이 있어 사용(학습)하는 데이터의 편향, 불완전성 등에 대한 사전적 식별과 조치가 중요함을 강조하였음.”

AXt7JrVizoRhAAAAAElFTkSuQmCC

[그림 2] AI 챗봇 이루다의 모습. 부적절한 발언에 대한 대응과 개인정보보호 조치를 강화한 ‘이루다 2.0’의 시험서비스가 지난 3월 재개되었다. (출처: 스캐터랩 홈페이지 갈무리)

이런 사례는 2020년 한 업체가 출시한 AI 챗봇 ‘이루다’가 성희롱 발언과 소수자에 대한 편견을 담은 혐오표현을 내뱉었던 사건에서 잘 알 수 있어요. 이루다가 학습한 데이터는 메신저 서비스를 통해 확보한 연인 간 대화 100억 건이었는데, 학습 과정에서 거르지 않은 내용이 있었던 겁니다. 100억 건의 대화를 어떻게 일일이 검토할까 싶기도 하지만, 그렇다고 문제를 방치해선 안 될 테니 세심한 대책이 필요할 거예요. 그렇지 않으면 여성을 비롯한 소수자에 대한 부정적 영향에 빅데이터가 일조하는 것이니까요.

또 다른 사례로는 아마존에서 개발하여 시범 운영했던 인공지능이 채용 과정에서 여성을 차별했던 사건도 있어요. 기존 10년간 지원자 이력서 내용 등을 학습한 이 시스템은 2014년부터 운영되었어요. 그런데 학습된 과거 자료에는 남성 지원자 정보가 압도적으로 많았기 때문인지 여성 지원자에게 감점을 주는 문제가 있었습니다. 결국 아마존은 201년 이 인공지능 채용 시스템을 폐기했어요. 단지 여성이라는 이유로 채용되지 못하는 사례가 잘못된 데이터로 인해 발생한 겁니다.

그런가 하면 특정 성별에 대한 데이터가 아예 없을 수도 있습니다. 지난 9월 신당역에서 발생한 사건을 기억하실 겁니다. 스토킹 가해자가 피해자를 살해한 사건이 있었지요. 이처럼 스토킹 범죄로 인해 사망하는 일이 많이 있음에도 이에 대한 데이터가 수집되지 않고 있습니다. 이런 현상을 두고 ‘젠더 데이터 공백’이라고 부릅니다. 즉 여성의 데이터가 제대로 수집되지 않는 현상을 일컫는 것이지요. 범죄 통계는 경찰, 검찰 등에서 집계하는데, 이들 기관이 손을 놓고 있는 사이 결국 시민단체인 한국여성의전화가 ‘분노의 게이지’라는 프로젝트를 통해 나름의 자료를 내놓고 있는 상황이에요.

올해 3월에 발표된 <2021년 분노의 게이지>에 따르면, 언론 보도를 기준으로 과거 또는 현재에 친밀한 관계 또는 일방적 요구를 하는 관계에 있는 남성으로부터 살해된 여성의 수는 103명, 살인미수에 그친 경우는 216명에 이릅니다. 이것은 언론에 보도된 제한된 자료만을 바탕으로 했기 때문에 사실 이보다 더 많은 피해사례가 있을 거예요. 이런 젠더 데이터 공백 상태에서 아무리 빅데이터를 분석한들 좋은 정책이 나올 리 만무합니다.


wNhUc824ZkCTAAAAABJRU5ErkJggg==

[그림 3] 한국여성의전화에서 발행한 <2021년 분노의 게이지> 중 최근 13년간 여성살해 피해자 수 통계와 설명 (출처: 해당 보고서에서 갈무리)

이런 사례들을 보면 처음에 말씀드린 여성 과학자 부족이라는 문제도 별개 고민거리가 아니라는 점을 알 수 있어요. IT 기술 업종에 종사하는 이들은 대부분 남성이라는 것이 통계적으로 밝혀져 있는데, 그들이 여성이 아니기 때문에 미처 볼 수 없던 문제들이 곳곳에서 발생하는 것이니까요. 성별 다양성은 이 지점에서 매우 중요한 의미를 갖습니다. 또 과학기술 분야에 여성이 진출하지 못한 이유 역시도 결코 능력의 문제가 아니며, 고정된 성 역할의 학습, 강요된 출산과 육아, 경력단절, 남성 중심의 직장 분위기 등 여러 불평등이 결합된 구조적 결과입니다.

사실 주변을 둘러보면 빅데이터를 비롯한 고도의 과학기술 산업을 보고 경제적 측면에서만 보는 경향이 있는 것은 아닌지 하는 우려가 있어요. 하지만 생각해볼 거리가 매우 많아요. 그 중에서도 이번 연재에서는 젠더 관점으로 접근해보려 합니다. <젠더 평등과 빅데이터>의 부제는 ‘젠더 데이터를 보이게 하라(Making Gender Data Visible)’입니다. 빅데이터가 젠더 편향적일 수 있음에도 또한 빅데이터를 통해 그동안 가려진 젠더 불평등을 찾아낼 수 있기 때문이에요. 젠더 관련 정책은 곳곳에 숨은 불평등을 찾아내어 서로가 존엄한 존재로 대우받기 위한 것이므로, 여성이라는 특정 성이 아닌 모두의 이슈입니다. 앞으로 많은 이야기를 나누어요.


9k=



[그림 4] Big Data for Humanity (출처: 빅데이터 혁신공유대학 홈페이지 갈무리)