챗봇, 스피커 등 편의 도구에서 취업까지 인공지능(AI)이 활용되는 범주가 넓어지고 있다. 동시에 성차별 우려로 AI 이력서 평가를 거둔 ‘아마존’, 혐오발언 재발화 등으로 서비스가 중단된 국내 챗봇 ‘이루다’ 등 학습 데이터에 따른 AI의 편향성 한계도 확인되고 있다. AI 활용이 가속화할 수밖에 없는 환경에서 ‘차별을 확산하지 않는 AI’ 원칙을 제시한 가이드라인이 있다.

한국여성민우회 성평등미디어팀은 17일 그간 AI 업계 종사자·연구자와의 집담회, 두 차례의 라운드테이블 등을 거쳐 만든 ‘페미니스트가 함께 만든 AI 가이드라인’을 발표했다. 이들은 “AI는 그 어떤 기술보다도 파급력을 갖고 있다. AI로 인해 차별이 확산될 수 있다면 반대로 AI가 차별의 확산을 막는 데 활용될 수도 있을 것”이라며 “차별적이지 않은 기술, 폭력에 반대하는 기술은 사회를 변화시킬 수 있다”고 취지를 설명했다.

해당 가이드라인은 AI 개발 주체, 이용자, 정부 당국 등의 책무를 16개 키워드, 52개 항목에 담고 있다. 주요 키워드는 △기본원칙 △데이터편향 △알고리즘편향 △차별금지 △개인정보보호 △책무성 △다양성 △설명책임 △투명성 △기술통제권 △고위험 AI △교육 △영향평가 △정부와의회 △이용자의무 △시민참여 등이다. 분류는 하버드 법대 버크만 센터의 ‘인공지능 윤리원칙 보고서: 원칙에 입각한 인공지능(Principled Artificial Intelligence)’가 제시한 범주를 참고했다는 설명이다.

▲한국여성민우회 성평등미디어팀 ‘페미니스트가 함께 만든 AI 가이드라인’ 일부
▲한국여성민우회 성평등미디어팀 ‘페미니스트가 함께 만든 AI 가이드라인’ 일부

가이드라인은 ‘AI 기본 원칙’으로 어떤 기술을 개발할지 페미니즘 관점에서 논의하고, AI 기술이 개인 프라이버시와 친밀감을 침해하지 않으며, AI 기술로 인해 발생할 차별·편향의 사회적 맥락을 고려해야 한다고 규정한다. AI 기술은 인간의 자율성 존중과 공동체 미래 및 더 나은 삶에 기여하고, 수익은 리터러시 교육 등 공익적·사회적으로 환원해야 한다는 내용도 포함됐다.

AI를 ‘인간화’해 표현할 땐 인종, 종교, 장애, 성적 정체성, 성적지향, 사상, 정치 성향에 대한 사회적 편견을 반영해선 안 된다. 특히 일상생활에서 접하기 쉬운 AI 음성인식 기술의 경우 목소리 높낮이를 기준으로 성별을 단정하지 말아야 한다고 밝히고 있다.

AI 개발 주체의 책무도 세부적으로 명시됐다. AI 학습을 위한 정보 수집에 있어 대상자에게 데이터 사용 사실을 알리고 정보제공 거부권을 부여해야 하며, 초상권·주소 등 개인정보가 노출되지 않도록 보호하고, 나아가 피해 발생에 대해 보상해야 한다. AI가 학습한 데이터의 출처나 데이터 유형, 인구학적 요소를 공개할 것도 당부했다.

민간·공공 부문에서 확대되고 있는 채용을 비롯해 판결, 투표 등 중요한 의사결정을 AI로 완전히 대체해선 안 된다는 대목도 있다. 실제 지난 10월 정필모 더불어민주당 의원실에 따르면 민간기관 339곳, 공공기관 93곳에 AI역량평가가 활용되고 있는 것으로 나타난 바 있다.

가이드라인은 “인간의 의사결정은 검토 여지가 있지만, AI의 의사결정은 왜 그러한 결과가 나왔는지 불투명하다”며 “AI 의사결정을 검토할 수 있는 단계를 두는 방식도 있겠지만, 인간이 잘못된 의사결정을 하는 경우가 있더라도 인간의 판단에 맡겨야 하는 영역은 지켜져야 한다”고 강조했다. AI를 활용한 교육을 진행할 때에도 교육 대상자에게 AI 활용 여부와 작동 방식을 안내하라는 권고다.

▲인공지능(AI)을 표현한 이미지 ⓒgettyimagesbank
▲인공지능(AI)을 표현한 이미지 ⓒgettyimagesbank

아울러 정부는 공적기금을 들여 AI 서비스를 개발할 경우 심사 과정에서 AI의 사회적 영향력을 예측한 보고서를 반드시 제출해야 하고, AI 사업 관여자의 인적 구성은 특정 성별이 60%를 넘지 않도록 해야 한다. 가이드라인은 또한 AI 관련 차별금지를 위한 차별금지법 제정, 데이터다양성위원회와 같은 사회적 규제 기구 설치 등도 권고했다.

한국여성민우회 성평등미디어팀의 윤소 활동가는 가이드라인 말미에 “2019년 지금은 세상을 떠난 윤정주 활동가의 제보로 한국여성민우회 성평등미디어팀의 AI 대응 활동이 시작되었다. AI 스피커의 성차별성을 문제제기하는 활동이 이 소책자를 만드는 활동으로 이어져 왔다”며 “올 한해 AI를 파헤치면 파헤칠 수록 AI 기술을 잘 모를 수 있어도 AI가 나아가야 할 방향을 제시하는 것은 페미니스트가 해야 한다는 확신을 갖게 되었다”고 소회를 전했다.

조경숙 테크페미 활동가는 “새로운 서비스에는 새로운 위험성이 뒤따른다”며 “처음부터 사전 대응할 수는 없었겠지만 사례가 보고되었다면 이후로는 비슷한 사건이 재발하지 않도록 ‘어떻게든’ 조치해야 한다”고 대응 원칙의 필요성을 강조했다. 예컨대 인스타그램의 장소 태그로 인한 사이버 스토킹 위험성, 페이스북의 ‘함께 아는 친구’로 인한 프라이버시 침해, AI 기계학습으로 인한 개인정보 침해 등은 예측할 수 없었지만 실재하는 사건이라는 것이다. 조 활동가는 “현장마다 상황이 다르니 가이드라인이 적합하지 않을 수 있다”면서도 “서비스와 관련해 개발진이 나눠야 할 논의의 물꼬를 터주었다면 그 자체로도 유의미한 결과”라고 의미를 짚었다.

저작권자 © 미디어오늘 무단전재 및 재배포 금지