미디어오늘

‘제2 이루다’ 아른거리는 안면인식 AI
‘제2 이루다’ 아른거리는 안면인식 AI
차별과 감시 수단이 된 안면인식 기술, 미국선 ‘알고리즘 삭제 명령’까지
국내 ‘스마트 치안’ 등 위험성, “카톡 대화로 만든 ‘이루다’처럼 어디로 튈지 몰라”

FBI의 적극 수사로 미국 의회에 난입한 ‘친 트럼프’ 시위대 다수가 체포됐다. 주민등록 시스템이 없는 미국에서 어떻게 신원을 파악할 수 있었을까. ‘안면인식 기술’의 공이 컸다. 경찰은 클리어뷰AI가 개발한 알고리즘을 통해 용의자로 추정되는 인물 정보를 FBI에 전달했다. 이 업체는 CCTV에 드러난 얼굴을 입력하면 얼굴 곳곳의 밝기 등 특징을 뽑아낸 다음 인터넷 공간 속 수 많은 사진 데이터베이스와 비교해 누구인지 알아내는 영화 같은 기술을 갖고 있다.

이 기술의 근간은 ‘우리의 사진’이다. 지난해 뉴욕타임스는 클리어뷰가 운전면허 사진 등 공적 용도의 사진 뿐 아니라 소셜미디어 등에서 수집한 얼굴 사진 30억장을 보유했다고 보도한 바 있다. 뉴욕타임스와 시민단체들은 프라이버시 문제, 데이터 남용 가능성이 크다고 경고했다. 

안면인식 기술의 두 얼굴

안면인식 기술은 사진과 영상 등을 통해 1:1 매칭, 데이터베이스와 비교해 식별, 개인의 감정과 행동을 추측하는 기술 등으로 나뉜다. 우리도 모르는 사이 안면인식 기술은 다양한 분야에서 활용되고 있다.  

출입 관리, 수사시 신원 식별과 같은 용도로 여러 국가에서 쓰이고 있다. 산업적 활용도도 높다. 금융 분야에서 안면인식을 통한 보안 기술이 대중화됐고 페이스북에서 얼굴을 자동으로 태그하는 기능은 일상이 됐다. 인공지능 면접에서 표정과 감정 등을 파악할 때 활용하거나 인원을 계측할 때 정교한 분석이 가능해지는 등 활용 범위가 무궁무진하게 확대되고 있다.

▲ ⓒ istock
▲ ⓒ istock

하지만 안면인식은 논란이 끊이지 않는 ‘위험한 기술’이다. 얼굴과 같은 생체 정보는 전화번호나 주소와 다르게 쉽게 바꿀 수 없어 프라이버시 침해가 치명적이다. 특히 개인의 명시적 동의 없이 이 기술을 활용하는 경우 일상적 감시가 가능한 문제가 크다. 정부 차원에서 안면인식을 통한 관리를 해온 중국은 ‘감시 사회’의 표본이 됐다. 영국은 테러 방지 목적으로 CCTV를 대거 늘렸는데, 안면인식 기술이 들어간 카메라가 활용돼 논란이 되기도 했다.

국내에서 논란이 된 인공지능 챗봇 ‘이루다’가 그랬던 것처럼 안면인식 기술이 ‘차별’을 야기한다는 지적도 있다. 지난해 6월 미국 미시간에서는 체포된 남성이 죄가 없었다는 사실이 뒤늦게 드러났다. 지난해 12월 디트로이트에서 체포된 남성 역시 무혐의 결정을 받았다. 두 사람 모두 안면인식 기술을 적용한 수사에서 체포됐다. 뉴욕타임스는 이 같은 사례가 3건 있었다고 지적하며 “공교롭게도 세 명 모두 흑인이었다”고 했다. 뉴욕타임스는 “2019년 100개 이상의 안면 인식 알고리즘에 대해 전국적인 연구를 시행한 결과, 흑인과 아시아인 얼굴을 제대로 인식하지 못했다”고 지적했다. 

미국에선 초유의 알고리즘 삭제 명령까지

미국 연방거래위원회는 지난 11일 이례적인 결정을 내린다. 사진 저장앱 Ever가 수집한 사진이 동의 없이 안면인식 개발에 활용된 문제가 드러났는데, 연방거래위원회는 수집한 사진, 영상, 안면인식 정보 삭제 뿐 아니라 이를 기반으로 만든 인공지능 모델과 알고리즘까지 삭제하라는 명령을 내렸다. 김민 진보네트워크센터 활동가는 “규제기관은 알고리즘 자체가 불법적으로 수집한 정보로 만들었기에 전부 다 삭제하라는 명령을 내린 것으로 이례적인 결정”이라고 평가했다.

한국 이용자에게도 익숙한 페이스북의 안면인식 기능은 소송으로 이어졌다. 페이스북의 자동 태그 기술이 생체정보 수집시 목적과 보관 기관 등을 상세히 설명하고 동의를 구하는 일리노이주의 생채정보보호법 위반 소지가 있기 때문이다. 페이스북은 본안소송에 들어가기 전에 합의금을 제시하며 일단락됐다. 

▲ 페이스북 본사. 사진=페이스북 뉴스룸.
▲ 페이스북 본사. 사진=페이스북 뉴스룸.

미국에선 ‘기업’ 차원에서 견제구를 던지는 모습도 포착된다. 지난 14일(미국시간) 국제전자제품박람회 CES행사에서 브래드 스미스 마이크로소프트 CLO(최고법률책임자·사장)는 “기술에는 양심이 없다”는 의미심장한 말을 남겼다. 그는 “AI가 모든 걸 약속하는 것 같지만 우리는 새로운 가드레일을 마련해야 한다”며 “인류가 기술이라는 무기를 통제할 수 있어야 한다”고 했다. 신기술 경쟁의 장에서 인공지능 윤리가 화두가 된 것이다.

미국에선 IBM, 아마존, MS 등이 잇따라 안면인식 사업을 철회했다. 미국 AI면접업체 HireVue는 안면인식 기술이 논란이 되자 지난 12일 해당 기능 중단을 선언했다.

지난해 8월 한국법학원 학술저널 ‘저스티스’에 게재된 ‘안면인식정보 보호 및 안면인식기술 규제에 관한 미국법 연구’에 따르면 미국에선 관련 입법 움직임도 이어지고 있다. 상업적으로 명시적 동의 없이 개인 식별 또는 추적에 안면인식 기술 활용을 금지하는 ‘안면인식 프라이버시법’, 여성, 아동, 흑인, 기타 소수 인종에 대한 가이드라인이 마련될 때까지 연방정부가  안면인식 기술 사용을 금지하는 ‘안면인식의 윤리적 사용법안’이 대표적이다. 지난해 9월 오리건주 포틀랜드시는 미국 최초로 민간영역의 안면인식 기술 사용을 금지하는 조례를 통과시키기도 했다.

어디로 튈지 모르는 기술, 제2의 ‘이루다’ 될라

미국에선 안면인식 기술에 대한 논쟁과 규제, 재판과 법 제도 개선 논의가 이어지는 반면 한국에선 사회적 쟁점이 되지 않고 있다. 하지만 조금씩 문제가 수면 위로 드러나고 있다.

코로나19 국면에서 곳곳에 설치된 안면인식 열화상 카메라는 우리도 모르는 사이에 과도한 정보를 가져갈 수 있게 설계돼 있었다. 일부 열화상 카메라에는 동의 없이, 개인을 특정할 수 있는 정보까지 자동으로 저장·관리되는 데다 전송기능까지 갖춘 것이다. 시민단체의 문제제기가 이어진 이후 개인정보보호위원회는 문제가 있다고 판단하고, 지난해 11월 열화상카메라 운영 개인정보 보호 수칙을 마련했다.

수사 분야에서는 해외 못지 않게 안면 인식 기술에 집중 투자하고 있다. 정보인권연구소가 지난해 12월 발간한 ‘경찰 등 법집행기관의 얼굴인식 감시기술 사용과 인권 문제’ 보고서는 경찰의 ‘스마트치안’에 주목했다.

보고서에 따르면 경찰은 범죄현장에서 찍힌 용의자 사진과 9대 수법 범죄자 데이터베이스를 비교해 신원확인을 하는 ‘범죄예방 3D얼굴인식시스템’을 개발해 발전시키고 있다. 2019년 기준 이 시스템에는 19만8330건의 안면인식 정보가 포함돼 있다. 경찰은 2024년을 목표로 CCTV 연계 얼굴인식 식별 기능도 개발하고 있다. 부천시는 코로나19 확진자의 얼굴 사진과 CCTV 영상 속 시민들의 얼굴을 대조해 추적하는 ‘확진자 동선추적 시스템’을 개발하고 있다. 

김민 활동가는 “범죄 문제 등 공적 영역에서 추진하면서 대중적 공감을 사고 있지만, 이런 방식으로 시작된 기술이 어디로 튈지 모른다”고 지적했다. 그는 “‘이루다’ 논란이 불거진 스캐터랩 역시 처음부터 챗봇을 기획하기 위해 메신저 대화 내용을 수집하지는 않았을 것이다. 데이터를 쌓아놓다 보면 다양한 활용방안을 고민하게 된다”고 덧붙였다. 

2011년 경찰은 흉악범 데이터베이스를 확보하기 위해 도입한 ‘DNA신원확인정보법’을 통해 쌍용자동차 파업 참여 노동자 35명의 DNA를 채취하려 해 논란이 됐다. 경찰이 확보한 기술과 데이터베이스를 악용해 정부에 비판적인 인사를 색출하고 감시하는 등 악용될 소지도 배제할 수 없다. 

▲ 열화상 카메라를 통해 체온을 측정하는 시민. © 연합뉴스
▲ 열화상 카메라를 통해 체온을 측정하는 시민. © 연합뉴스

한국에선 안면인식 기술을 비롯한 인공지능 문제의 제도적인 논의가 거의 이뤄지고 있지 않은데 ‘감시와 통제 가능한 기술’을 위한 노력이 필요하다.

‘안면인식정보 보호 및 안면인식기술 규제에 관한 미국법 연구’ 저자 이창민 변호사는 “안면인식기술의 무분별한 발전이 시민의 권리와 자유를 침해하지 않도록 구체적인 규제 프레임을 미리 마련할 필요가 있다”고 제언한다. 연구는 △ 안면인식 기술 도입에 대한 기관 간 견제와 감시제도 마련 △ 개인정보 영향평가 실시 의무화 △ 안면인식 기술의 성능과 한계에 대한 투명한 공개 의무화 △ 안면인식 기술의 오류, 편향성에 대한 테스트 의무화 등을 제시했다.

국회 입법조사처는 지난해 9월 ‘인공지능의 윤리적 사용을 위한 개선과제’ 보고서를 통해 △체계적이고 표준적인 윤리기준 등 인공지능윤리 거버넌스 마련 △ 예상치 못한 문제 발생 등에 대응할 수 있는 인공지능 사후감시 감독 시스템 도입 △ 인공지능 피해에 대한 배상책임 제도 보완 등 인공지능 전반의 논의가 필요하다고 했다.

김민 활동가는 “데이터 3법 도입으로 무분별한 가명정보의 활용이 열려있다. 이루다 사태 이후로 이용자가 알지 못하는 가명정보 활용에 대한 반발이 드러났음에도 해당 데이터에 대한 제대로 된 폐기 절차가 제도적으로 보장되지 않았다”며 “미국에선 ‘알고리즘 삭제 명령’을 내렸지만 국내는 이런 명령을 내릴 수 있는 기관이 없다”고 지적했다. 변화한 기술에 대한 더딘 대응과 산업 논리가 앞세워진 상황에서 새로운 기술을 견제할 수 있는 ‘골든타임’이 지나고 있다.

이 기사를 후원합니다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.