“알고리즘은 과학이 아니다, 민주주의다”
“알고리즘은 과학이 아니다, 민주주의다”
[넥스트 미디어 리터러시 ⑥-2] 심우민 경인교대 교수 “여론수렴 전제하는 인공지능 영향평가 필요”

미디어 리터러시가 화두입니다. 가짜뉴스, 혐오표현 등이 논란이 될 때마다 언론은 미디어 리터러시 교육을 해야 한다는 결론을 내지만 정작 어떤 교육을 어떻게 할지 구체적 논의는 찾기 힘듭니다. 미디어오늘은 ‘넥스트 미디어리터러시’ 기획을 통해 현장을 들여다보고 급변하는 매체 환경 속에서 대안적 교육을 모색하고자 합니다. - 편집자 주

[관련기사 모음: 넥스트 미디어 리터러시]

“내가 말하는 건 과학이 아니라 민주주의다.” IT법학 전문가인 심우민 경인교대 사회과교육과 교수는 ‘영향평가’ 전도사다. 그는 인공지능 등 IT분야의 제도를 논의할 때 주먹구구식 입법이 아닌 명확한 효과 검증과 이해관계 당사자 참여를 전제하는 ‘영향평가’ 제도화를 강조해왔다. 지난 20일 서울 종로구에서 그를 만났다.

-인공지능으로 인한 사회적 우려가 있다. 규제를 완화해야 한다는 입장과 그래선 안 된다는 입장이 대립하는데.

“자동차가 새롭게 도입되면 어떤 영향을 주는지 알아야 규제할지 말지 알 수 있다. 인공지능도 마찬가지다. 공상과학 담론에 입각해 한쪽에선 위험성, 다른 쪽에선 편의성을 강조하며 싸우고 있다. 규제는 문제가 명확해야 대안을 만들 수 있는데 실증적으로 검증된 건 없이 상상의 나래를 펼친다. 그러면 엉뚱한 대안이 나올 수 있다. 영향평가 작업이 필요한 이유다.”

▲ ⓒ istock
▲ ⓒ istock

-영향평가는 지금도 하지 않나.

“규제개혁위원회의 규제영향심사가 있는데 형식적이다. 입법예고 때 규제영향심사 결과에서 이해당사자 의견란을 보면 ‘관련 없음’이라고 나온다. 청취를 안 했거나 청취를 하고도 공개하지 않는 경우다. 그런 식의 평가는 큰 의미가 없다. 내가 말하는 영향평가는 이해관계자마다 다른 가치관을 포함하는 연구를 통한 정밀한 효과 예측이 중요하다. 이번 정부의 원전공론화위원회나 4차산업혁명위원회는 그 일환이라고 볼 수 있지만 정작 내용을 문서화해 공개하고 수차례 피드백을 거치지 않은 점이 아쉽다.”

-제대로 된 영향평가는 어떤 방식으로 할 수 있나.

“영향평가를 얘기하면 데이터를 만드는 조사라고 생각하는데 그렇지 않다. 법이나 정책은 가치 판단의 문제이기 때문에 수치화되지 않는 경우가 많다. 실제 영향평가는 특정 제도를 도입하는 과정에서 의견수렴 등 사회적 논의를 중시한다. 유럽에서는 문서화된 방식으로 각계각층의 의견을 수렴하고, 그 내용을 공개하고 피드백 받는 절차가 몇 번이나 반복된다. 이 과정에서 자연스럽게 협의가 이뤄지고 현실적인 대안이 나온다. 유럽의 새로운 개인정보보호규범(GDPR)도 이렇게 만들었다.”

- 영향평가가 어떤 분야에서 필요한가.

“모든 영역에서 필요한데 한국은 제도적으로 정착되지 않은 상황이다. 국가과학기술자문회의나 4차산업혁명위원회처럼 신기술과 관련된 논의를 하는 기구에 우선 도입해야 한다. 최근 카풀 논쟁이 있었는데 특정 업계로만 협의체를 만들어 해결할 게 아니라 국민에게 의견도 묻고 카풀이 도입됐을 때 택시산업을 예측하는 조사를 병행할 필요가 있다.”

-인공지능 분야 가운데 어떤 영역에서 영향평가가 필요한가.

“자율주행차가 사고를 낼 때 손해배상의 주체가 누군지 논의가 이뤄지던데 왜 이렇게 먼 미래의 일을 얘기하는지 모르겠다. 현실주의자들은 완전자율주행은 100년이 지나도 힘들다고 본다. 부분적이라도 인간이 주행한다면 운전자가 책임지면 된다. 성급하게 예측해서 규제를 만들면 과잉규제가 되고 섣불리 예측해서 규제를 없애면 보호해야 할 가치를 못 지킨다. 오히려 지금 당장 포털 기사배열이 민주주의에 영향을 미친다는 게 중요하다.”

▲ 디자인=이우림 기자. ⓒ gettyimagesbank
▲ 디자인=이우림 기자. ⓒ gettyimagesbank

-정부가 알고리즘 관련 기준을 논의하는데.

“한국의 경우 정부에서 민간에서 활용할 윤리기준을 만들어 제시하는데 그러면 시민사회의 창의적인 기술 활용이 불가능해진다. 사업자들 스스로 적용한 경험을 통해 편향과 왜곡을 발견하고 그 고민의 결과 자체적인 알고리즘 공개 기준들을 제시하는 과정에서 여러 기업이 합의할 수 있는 적정한 선의 기준이 나온다. 미국에서는 민간협회에서 기준을 제시하면 시민사회에서 함께 논의하고 있다.”

-그런데 정작 기업은 관련 논의에 소극적이다.

“기업이 먼저 공개해야 국회에서도 무리한 규제를 논의하지 않을 수 있다. 영업비밀이라고 하는데 시민들의 우려는 기업의 영업 그 자체가 아니라 그들이 수익을 내는 과정에서 여론이 편향되거나 왜곡될 수 있다는 점이다. 기사배열의 경우 광고수익과도 연관이 있기에 알고리즘 배열이 광고시장에 어떤 영향을 미치는지도 공개해야 한다. 하지만 광고수익부터 영업비밀이라고 하니 논의에 진전이 없다.”

-알고리즘 공개는 어떤 식으로 가능할까.

“사업을 통해 수익을 내는 자가 자신들의 경험을 바탕으로 얘기를 하는 게 핵심이다. 이것도 일종의 영향평가로 논의 그 자체가 중요하다. 포털이 기사배열 원칙을 제시하면 의문이 나올 거다. ‘공정성? 그 원칙은 어떻게 지키냐’고 말이다. 그러면 기업은 대답을 하고 또 다른 추가 질문에 피드백을 해야 한다. 이 과정이 원활해야 의미 있는 지침을 만들 수 있다. 인터넷 기업이 투명성 보고서만 내는데 알고리즘 백서를 낼 필요도 있다. 면피성 위원회가 아니라 알고리즘으로 인한 프라이버시 침해, 여론 왜곡 등을 집중적으로 논의하는 영향평가 차원의 자체 위원회도 필요하다.”

이 기사를 후원합니다.


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 1
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
바람 2019-03-28 15:29:39
과학이라고 해서 100퍼센트 진실은 없다. 돌발상황은 과학으로 다 알 수 없는 영역이다. 이런 새로운 기술은 과학으로 증명하는 것보다 사회적 합의와 타협이 먼저라고 본다. 공론화위원회, 숙의 민주주의가 대표적이다. 국민의 합의를 통해 이해득실을 결정하는 것이지, 과학 알고리즘이라고 100퍼센트 답이라고 믿으면 안 된다.