인공지능(AI)이 객관적이고 공정할 거란 가설이 틀렸다는 근거는 많다. 2014년 성차별 논란으로 폐기된 ‘아마존’ 채용시스템, 2015년 흑인 커플을 ‘고릴라’로 분류한 ‘구글포토’, 2017년 미 독립언론 ‘프로퍼블리카’에 의해 흑인들에게 편파 판결한 사실이 밝혀진 미국 법원 판결 알고리즘 ‘콤파스’ 등이 대표적이다. 문제는 일상에 국한되지 않는다. 유엔(UN)은 2016년 사람이 의사결정에 참여하지 않는 자율 무기를 금지하는 협정을 제안했다.

2017년 글로벌 리스크 리포트는 편익과 함께 위험이 가장 큰 기술로 인공지능·로봇공학을 꼽았다. 미국, 유럽 국가들은 이미 인공지능 윤리 문제를 다루기 위한 제도나 기구를 만들고 있다. 국회입법조사처가 25일 국내에서도 인공지능 윤리와 관련해 표준적 기준을 만들고, 관련 문제를 조정·해결하기 위한 거버넌스를 둬야 한다고 밝혔다.

AI 기술·적용이 한국에 비해 활발한 해외에서는 인공지능 관련 윤리 규범을 마련하고 있다. 대표적으로 유럽연합(EU) 집행위원회는 지난해 4월 ‘신뢰할 수 있는 인공지능을 위한 윤리가이드라인’을 통해 △인간 개입·감독 △기술적 견고성·안전성 △프라이버시 및 데이터 거버넌스 △투명성 △다양성, 차별금지 및 공정성 △사회적·환경적 복지 △책무성 등 7개 사안을 요구했다.

▲ ⓒgettyimagesbank
▲ ⓒgettyimagesbank

프랑스는 대통령 주도로 유럽의 AI 관련 규정을 개정하고 AI 기술 투명성 확보를 위한 모델 개발 및 윤리위원회 설립을 했다. 싱가포르는 정부·업계·학계 및 대중과 소통을 위한 체계를 구축하고 있다. 독일은 AI 시스템을 △피해가능성이 없거나 무시 가능 △부분적인 피해 가능성 △정기적이거나 중대한 피해 가능성 △심각한 피해 가능성 △감당할 수 있는 피해 가능성 등 5단계로 규제하는 방안을 마련하고 있다. 영국, 호주 등도 윤리기준을 정하고 있다.

미국 상원은 인공지능 사용과 관련해 △SNS에서 봇을 통한 정치적 선전을 방지하기 위해 자동화된 소프트웨어 사용 제한 △인터넷서비스제공자가 AI 알고리즘 활용 시 이를 사용자에게 알리고 사용자는 이를 사후 거부할 수 있는 필터버블 투명법안 등을 발의했다. 앞서 미국 뉴욕시에서는 2019년 ‘알고리즘 설명책임 법안’ 시행에 따라 공무원·학계·법조계·과학기술계 전문가로 구성된 태스크포스를 발족했다.

한국에서도 2018년을 기점으로 정부·기관 등의 관련 헌장·가이드라인이 만들어졌다. 2018년 1월 과학기술정보통신부·한국정보화진흥원 ‘지능정보사회 헌장’, 2018년 12월 한국정보화진흥원 ‘지능형 정부 인공지능 활용 윤리 가이드라인(안)’, 2019년 한국인공지능윤리협회 ‘인공지능 윤리헌장’, 2019년 11월 방송통신위원회·정보통신정책연구원 ‘이용자 지능정보사회 원칙’, 2019년 12월 국토교통부 첨단자동차기술과 ‘자율주행차 가이드라인’ 등이다. 카카오도 2018년 1월 ‘카카오 알고리즘 윤리헌장’을 발표했다.

▲ 소프트웨어정책연구소 '인공지능 윤리 이슈와 교육 과정 동향' 발췌 및 재구성.
▲ 소프트웨어정책연구소 '인공지능 윤리 이슈와 교육 과정 동향' 발췌 및 재구성.

그러나 부분적 가이드라인일 뿐 표준이 되는 기준이나 총괄 주체가 없다. 이에 입법조사처는 “표준적인 윤리기준을 마련하기 위하여 정부부처뿐만 아니라 관련 기업·학계·시민단체가 참여하여 함께 논의하는 게 필요하다. 이러한 논의의 장과 함께 인공지능의 사용 확대에 따라 발생할 수 있는 윤리기준과 관련된 문제를 종합적으로 조정하고 해결할 수 있는 거버넌스를 두는 것을 고민해 볼 필요가 있다”고 지적했다.

인공지능 기술 자체에 대한 규제 필요성도 제기됐다. 인공지능 기술로 발생할 문제점을 추적·평가하는 감시시스템, 기업의 윤리책임 부여 등이다. 특히 로봇, 자율주행차, 드론, 신용평가, 신약개발 등 다양한 분야로 확장되는 인공지능 기술과 관련해 기업 수준에 맞는 책임을 부여하고, 강령 제정 및 피해 회복 방안을 의무화할 필요성이 제기됐다. 최근 미국 브루킹연구소가 주최한 ‘인공지능 윤리적 딜레마 대책 논의’ 패널 토의에서는 기업 차원에서 △윤리전문가 채용 △AI윤리강령 제정 △AI검토위원회 설치 △AI감사 추적 △AI교육프로그램 구현 △인공지능 피해 또는 상해 회복방안 제공 등 6가지 검토 방안이 제안된 바 있다.

2년 전 미국에서 우버 자율주행차량이 보행자를 사망하게 한 사건에서 불거졌듯 ‘배상책임’도 관건이다. 공공·민간을 막론하고 알고리즘 도입 분야가 늘면서 불합리한 시스템으로 개인정보·신용 등 피해를 겪는 사례가 발생할 여지도 있다. 현재로서 인공지능이 다른 제품과 결합될 경우는 ‘제조물 책임법’에 따른 책임을 물을 수 있지만, 인공지능이 소프트웨어 형태로 있을 때는 책임을 묻기 어렵다. 입법조사처는 “인공지능의 특성을 고려해 책임 요건을 규정할 필요가 있고, 누구에게도 책임을 돌릴 수 없는 손해의 경우 이를 배상하기 위한 보험제도 도입을 검토해 볼 필요가 있다”고 봤다.

다만 일부 기관이나 법·제도로 일방적인 규제책이 마련되는 데 대한 우려도 남는다. 이와 관련 홍성욱 서울대 교수는 ‘알고리즘 시민권’ 형성을 강조한다. 2018년 과학기술정책연구원 보고서에서 홍 교수는 “남녀, 연령, 지역, 자산 및 소득 계층 간의 갈등, 편견, 혐오의 뿌리가 깊고, 점차 다문화사회로 변하면서 인종 간의 갈등도 표면화되는 한국 사회에서 인공지능 알고리즘의 확산은 사회적 차별을 반영하고 증폭시킬 수 있다”며 “알고리즘의 차별 가능성에 대해서 적극적으로 개입하고 알고리즘의 반민주주의적 사용을 반대하고 저지하는 ‘알고리즘 시민권’의 형성이 어느 때보다도 더 절실하다”고 밝혔다.

※ 참고문헌
국회입법조사처 ‘인공지능의 윤리적 사용을 위한 개선과제’ (2020, 이순기)
소프트웨어정책연구소 ‘인공지능 윤리 이슈와 교육 과정 동향’ (2019, 김정민)
과학기술정책연구원 ‘인공지능 알고리즘과 차별’ (2018, 홍성욱)

저작권자 © 미디어오늘 무단전재 및 재배포 금지