“차별 재생산하는 AI, 지속적 공론화 필요”
“차별 재생산하는 AI, 지속적 공론화 필요”
제2차 성평등포럼 ‘차별과 혐오를 답습하는 AI’

“너는 인종차별주의자냐?” “네가 멕시코인인데 당연하지.” 2016년 마이크로소프트가 선보였던 채팅봇 ‘테이’(Tay)는 16시간만에 운영을 중단했다. 백인 우월주의자와 여성·무슬림 혐오자 등이 모인 익명 인터넷 게시판에서 사용자들이 의도적으로 테이를 ‘세뇌’시킨 결과였다. 2018년 10월 아마존은 2014년부터 개발해온 인공지능(Artificial Intelligence·AI) 채용 프로그램을 폐기했다. 지난 10년 회사가 수집한 이력서 패턴을 익힌 AI는 경력 10년 이상 남성 지원자 서류만 고용 후보로 제시하기 시작했으며, ‘여성’이라는 단어가 들어가면 감점 요소로 분류했다.

세계경제포럼(World Economic Forum·WEF)은 2016년 인공지능 관련 9가지 윤리적 난제 중 하나로 ‘불공정한 편향성’(bias)에 의한 차별을 꼽았다. 미국은 2014년 백악관의 빅데이터 정책 보고서 발간 이래 빅데이터와 알고리즘 ‘차별’에 대한 대응을 촉구하는 정부 차원 보고서를 발행해왔다. 올해 유네스코(UNESCO)가 발표한 보고서(I’d blush if I could)는 ‘시리’를 비롯한 음성 인식장치들이 대부분 ‘젊은 여성’ 목소리를 기본값으로 설정해 수동적이고 소극적인 답을 내놓게 돼 있어, 여성 역할을 수동적·소극적이며 명령자에 복종하는 역할에 한정해 젠더에 대한 편견을 강화한다고 지적했다.

실제 KT ‘기가지니’는 ‘자동차를 좋아하느냐’는 질문에 “제가 여자라서 그런지 자동차에 관심이 없어요”라고 답했다. SKT ‘누구’는 ‘20대 중후반의 여성비서’를 가정해 목소리를 개발했다. 애플 ‘시리’는 노르웨이어로 ‘승리를 이끄는 아름다운 여성’이라는 뜻이며, ‘젠더 중립’을 표방한 마이크로소프트 ‘코타나’도 게임의 여성 캐릭터에서 따온 이름이다. 서울 중구 사회복지공동모금회관에서 14일 열린 2019년 제2차 성평등포럼 ‘차별과 혐오를 답습하는 AI – 젠더관점에서 본 현황과 대안’에서 나온 사례들이다.

▲ ⓒgettyimagesbank
▲ ⓒgettyimagesbank

이희은 조선대학교 신문방송학과 교수는 “기업의 ARS 음성이 상냥한 여성의 목소리인 것은 물리적 소리의 특질 때문이거나 기술적 한계 때문이 아니다. 그것은 철저히 문화적이고 사회적인 이유”라며 “남녀 목소리를 선택할 수 있는 다른 언어들과 달리 한국어 ‘시리’는 여전히 여성 목소리로 고정돼 있다. 새롭게 출시되는 국내 음성인식장치들은 젊고 상냥하며 활발하고 젊은 여성 목소리를 적극 구현한다”고 짚었다.

이 교수는 “‘지니’나 ‘시리’에 곤란한 질문을 물었을 때 화를 내거나 반발하지 않고 돌려말하거나 잘 모르겠다고 한다. 그것이 과연 인간과 인간 사이에 당연한 일인가”라고 물었다. 그는 “음성 인터페이스는 명령의 단계를 거칠 필요 없이 직관적으로 이용할 수 있다는 점에서 훨씬 더 편리한 것으로 인식되며, 인간의 목소리로 작동한다는 면에서 더 ‘인간적으로’ 느껴진다. 네트워크와 디지털 미디어의 환경 속에서도 사회에 이미 존재하던 편견과 차별은 ‘자연스럽게’ 인간의 음성으로 우리에게 다가온다”고 밝혔다.

국제사회에서는 AI로 인한 차별을 방지하고 공정성을 보장하기 위한 규범 마련 움직임이 이어지고 있다. 올해 유럽연합(EU)이 밝힌 ‘인공지능윤리가이드라인’은 인간 자율성 존중·위해 방지·공정성·설명가능성을 원칙으로 비차별성과 사회적 순기능 등 요건을 담고 있다. 경제협력개발기구(OECD) 디지털경제정책위원회도 올해 ‘인공지능권고안’을, 유네스코 집행위원회는 ‘인공지능 윤리 표준화 예비보고서’를 발표했다. 미국 하원은 △투명성·설명가능성 △소외계층·여성의 권한부여 △기술서비스·혜택의 공정성 등 10가지 목표를 담은 ‘AI의 윤리적 발전을 위한 결의안’을 채택했다.

허유선 동국대학교 철학과 교수는 데이터와 알고리즘의 편향성 문제를 지적하며 “데이터가 어떻게 선별되는지 어떻게 훈련하고 검증하는지 생각하면 종사자를 위한 교육과 지침이 필요하다”고 주장했다. 허 교수는 “젠더 평등 관점에서 관련 행위자를 교육하거나 자율적 규제를 위한 가이드라인을 제시할 수 있다. 교육 프로그램과 가이드라인을 위해 필요한 내용과 구성, 인적 자원 측면에서의 철학, 윤리학, 여성학, 교육학 등 인문사회학자 및 시민단체의 개입 및 협업이 크게 요청될 것”이라며 “알고리즘 소스의 공개 및 독립 기관을 통한 타당성 평가와 검사, 인공지능이 데이터를 처리하는 과정을 사후적으로 추적할 수 있도록 감사 추적 기록을 남길 의무 역시 하나의 방법”이라고 했다.

“기존의 젠더 관념에 대한 반성적 고찰이나 자각 없이는 어떤 이에게 명백한 피해를 낳는 차별도 다른 이에게는 차별로 인지되거나 규정될 수조차 없다”며 지속적인 공론화 필요성도 강조했다. “예를 들어 AI 비서 대부분이 ‘여성’으로 기본설정된 것에 대해 어떤 기업이나 연구진은 사람들이 여성의 목소리를 더욱 공감적이고 도움을 주는 것으로 선호한다는 이유를 제시하거나 기존 젠더 편향성이 반영돼있다는 점 자체를 부정하기도 한다”는 것이다. 또한 “알고리즘 설계 및 감사에서 젠더 고정 관념에 따른 차별에 적극적으로 주의하는 것을 원칙으로 삼도록 요구할 수 있다”며 “이를 위한 일환으로 관련 행위자 집단 내부의 다양성을 확충, 보장하는 것 등을 고려할 수 있을 것”이라고 제안했다.

이 기사를 후원합니다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 1
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
바람 2019-08-19 16:44:13
빅데이터를 통해 학습하는 AI를 보면, 우리가 너무 혐오와 차별에 대해 관대한 것은 아닐까.