미디어 리터러시가 화두입니다. 가짜뉴스, 혐오표현 등이 논란이 될 때마다 언론은 미디어 리터러시 교육을 해야 한다는 결론을 내지만 정작 어떤 교육을 어떻게 할지 구체적 논의는 찾기 힘듭니다. 미디어오늘은 ‘넥스트 미디어리터러시’ 기획을 통해 현장을 들여다보고 급변하는 매체 환경 속에서 대안적 교육을 모색하고자 합니다. - 편집자 주

[관련기사 모음: 넥스트 미디어 리터러시]

아침에 눈을 뜨자마자 스마트폰을 손에 쥐고 포털 뉴스를 확인한다. 출근길에 내비게이션을 켠다. 업무를 할 때 검색엔진에서 키워드를 검색해 자료를 찾는다. 퇴근 후에는 온라인 쇼핑몰에서 옷을 사고, 잠들기 전 침대에 누워 유튜브 영상을 보고 페이스북 뉴스피드를 내리며 지인들이 쓴 글을 읽는다.

이 모든 과정에 ‘알고리즘’이 작동한다. 황용석 건국대 미디어커뮤니케이션학과 교수는 논문을 통해 “이미 우리는 거대한 알고리즘의 체계 속에서 살고 있으며 현대사회는 알고리즘에 의해 조합되는 사회라 부를 수 있다”고 밝혔다. 강준만 전북대 신문방송학과 교수는 최근 출간한 저서 ‘한국언론사’에서 오늘날 언론 이슈를 다루며 ‘알고리즘 독재’에 주목했다.

“대한민국에는 네이버신문과 카카오일보가 있다.” 지난해 4월 포털을 비판하는 한국신문협회의 성명 내용이다. 포털 의존도가 매우 높은 한국에서 네이버와 카카오가 각각 ‘에어스’, ‘루빅스’라는 이름의 알고리즘으로 뉴스를 배열하기 시작하면서 뉴스 유통의 패러다임이 변화하고 있다.

우리의 삶을 지배하는 유튜브와 페이스북은 알고리즘의 집합체다. 페이스북은 시간 순으로 소식을 보여주는 것 같지만 이용자 정보, 친구 정보, 가입 그룹, 작성 게시 글 등 각종 정보를 바탕으로 특정인의 게시 글이 작성됐다는 신호가 들어오면 이용자가 반응할만한 정보를 예측해 점수를 책정하고 높은 점수의 게시 글을 먼저 배열하고 있다.

▲ ⓒ gettyimagesbank. 디자인=이우림 기자.
▲ ⓒ gettyimagesbank. 디자인=이우림 기자.

유튜브는 콘텐츠를 추천하고 배열하는 전반적인 영역에서 알고리즘이 작동한다. 이용자가 어떤 영상을 보는지, 그 영상을 어느 시점까지 시청했는지 등 데이터를 바탕으로 좋아할 만한 영상을 끊임없이 추천해 ‘동영상 개미지옥’을 만든다.

정책적 의사결정에도 인공지능 알고리즘이 도입되기 시작했다. 미국에서는 법원에서 피고인의 재범률을 추정하는 알고리즘을 참조해 판사가 형량을 선고하거나 가석방 허용 여부를 결정하기 시작했다. 인공지능이 사람을 대신하거나 보조하며 복지대상자를 선정하는 식의 정책도 이제 먼 미래의 일이 아니다.

알고리즘이 우리 생각·삶을 바꾼다

그러나 알고리즘이 ‘편견’을 초래하고 ‘확증편향’을 강화한다는 우려가 꾸준히 제기되고 있다. 이원태 정보통신정책연구원(KISDI) 연구위원은 ‘EU의 알고리즘 규제 이슈와 정책적 시사점’ 보고서에서 “알고리즘을 구축하는 단계에서 개발자의 성향과 판단, 사회적 풍토, 외적인 압력이 개입되기 때문에 알고리즘은 편향적일 수밖에 없다”고 지적했다. 기계가 하면 공정하고 완벽할 것 같지만 사람이 편견을 갖는 이상 사람의 데이터를 모아 작동하는 알고리즘도 편향을 가질 수밖에 없다.

예컨대 2016년 7월 인공지능을 활용한 온라인 국제미인대회에서 프로필 사진을 심사하는 프로그램이 백인을 제외한 후보자들을 떨어뜨린 일이 대표적이다. 구글의 온라인 광고가 여성보다 남성에게 보다 높은 임금의 직업 광고를 추천하는 경향과 흑인들에게는 저렴한 상품을 집중적으로 보여주는 경향이 높다는 연구결과도 있다.

콘텐츠 배열과 추천 알고리즘에는 정보 편식에 따른 ‘필터버블’ 우려가 뒤따른다. 미국행동·기술연구소(AIBR)는 구글 검색 알고리즘 조작 실험을 통해 부동층 20% 정도는 알고리즘 조절로 투표 대상을 바꿀 수 있다고 밝혔다. 페이스북은 이용자들을 두 집단으로 나누고 각각 긍정적인 글과 부정적인 글이 노출되도록 한 다음 사람의 감정에 영향을 미쳤다는 논문을 썼다가 ‘감정 조작실험’을 했다는 비판을 받았다. 소셜미디어의 ‘배열’이 개개인의 사고에까지 영향을 미칠 수 있다는 우려를 들게 한 사건이다.

▲ 페이스북 모바일 화면. 사진=페이스북 뉴스룸.
▲ 페이스북 모바일 화면. 사진=페이스북 뉴스룸.

최근에는 유튜브 알고리즘에 대한 우려가 커지고 있다. ‘월스트리트저널’에 따르면 유튜브는 추천 알고리즘으로 체류시간을 70%이상 늘렸는데 이 과정에서 음모론적인 내용도 자주 추천하고 있는 것으로 나타났다.

‘워싱턴포스트’는 극단주의자들이 유튜브 추천시스템을 악용해 자신들의 사고를 유튜브 이용자들에게 교묘히 심어가고 있다고 보도했다. 설명글과 해시태그 등을 통해 자신들을 한쪽에 치우치지 않은 성향으로 보이게 하는 영상에서부터 극단주의 성향을 노골적으로 보이는 영상까지 세분화해 올려 점점 극단적인 영상으로 빠져들게 했다는 것이다.

유튜브의 전 엔지니어인 기욤 샬로는 ‘가디언’에 “체류시간에만 집중된 유튜브 추천 시스템은 필터버블과 페이크뉴스를 발생시킬 수밖에 없었다”고 폭로했다. 이들 기업의 알고리즘은 ‘더 나은 세상’을 위해 작동하지 않는다. ‘효율’과 ‘수익 증대’가 목표다. 네이버와 카카오의 경우도 알고리즘 전면 도입 이후 뉴스 체류 시간이 늘어났다는 점을 효과로 언급했다.

이해가능한 알고리즘 리터러시, 어떻게?

알고리즘이 무서운 진짜 이유는 우리 삶 곳곳에 침투해 우리 삶을 지배하는 ‘권력’임에도 우리는 그 정체를 모른다는 데 있다. 이와 관련 심우민 경인교대 사회과교육과 교수는 “문제는 알고리즘 편향 자체가 아니라 편향인지 아닌지조차 인지하지 못한다는 사실”이라고 지적했다. 따라서 알고리즘을 제대로 이해하기 위해서는 알고리즘을 설명하는 작업이 우선돼야 한다. 심 교수는 “시민들에게 리터러시를 가져야 한다고 설명할 수는 있는데 아무도 네이버와 구글 알고리즘을 알지 못하는 상황에서는 별 의미가 없다”고 꼬집었다.

▲ 네이버 뉴스 배열 원칙.
▲ 네이버 뉴스 배열 원칙.

알고리즘 리터러시의 열쇠는 ‘기업’이 쥐고 있지만 사회적 ‘책무’에는 소극적이다. 네이버는 뉴스배열원칙을 △다양한 정보를 신속하고 정확하게 전달 △균형 잡힌 정보 △사회적 공익 가치 존중 △이용자와 쌍방향 소통 구현 △개인 인격권 보호 등으로 설명하고 있는데 정작 그 ‘균형 잡인 정보’와 ‘공익 가치’가 무엇인지, 어떻게 구현하는지 불분명하다. 

에어스 알고리즘 설명은 찾기 힘들고 내용 역시 우려점을 언급하지 않고 있다. 지난해 네이버 알고리즘 검토위원회가 검토 결과를 공개했을 때도 구체적인 내용은 언급하지 않은 채 ‘우리가 확인해보니 문제 없었다’는 식의 발표로 끝나 기자들이 비판 기사를 내기도 했다.

그렇다고 정치권 일각에서 나오는 ‘알고리즘 전면공개 요구’가 타당한 건 아니다. 막상 구체적인 소스를 공개해도 사람들이 이해하기 힘들고, 기업의 영업 비밀을 보호할 수 없음은 물론 알고리즘의 성격을 악용한 어뷰징이라는 역효과도 예상되기 때문이다.

접점이 있을까. 유럽연합(EU)에서 2018년 발효된 새 개인정보보호규정인 GDPR 논의 과정에서 ‘알고리즘에 대한 설명을 들을 권리’가 제시되면서 유럽에서는 그 기준을 두고 사회적인 논의가 촉발됐다.

황용석 건국대 교수는 최근 호텔 예매 서비스를 통해 검색 알고리즘을 어떻게 설명하느냐에 따라 이용자 평가가 달라지는지를 연구했다. 그 결과 아무런 설명 없이 서비스만 제공할 때 이용자들은 알고리즘을 긍정적으로 평가했다. 반면 “사용자의 편의를 위해 인공지능 추천 시스템을 이용하여 조금 전 입력하신 고객정보와 고객의 행동 데이터를 비교하여 유사한 고객(성별, 연령 등)이 가장 많이 선택한 호텔을 상위에 배치하였다”고 고지했을 때는 비판적인 평가가 많았다.

기술을 다 나열하지 않더라도 ‘무엇’을 ‘어떻게’ 하는지 밝힌 알고리즘이 맹목적인 믿음을 벗어던지게 한 것이다.

황용석 교수는 “검색 알고리즘에 대한 설명방식이 없으면 이 기술을 중립적으로 인식해 신뢰하지만, 추천 방식이 설명되면 검색 결과가 정확하고 신뢰할 수 있는지 스스로 판단하는 경향이 나타난 것으로 해석할 수 있다. 즉, 검색 알고리즘이 그 원리를 효과적으로 설명하는 것은 이용자의 합리적인 정보 소비에 중요한 요소”라고 설명했다.

심우민 교수는 “알고리즘이 활용된 서비스가 가진 한계를 경험하게 하는 교육이 리터러시 교육의 핵심”이라고 강조했다. 그는 “정치적 판단을 위해 뉴스는 중요한데, 전달 과정이 왜곡됐다면 여론형성에 영향을 미친다. 뉴스 리터러시 교육이 하나의 기사가 완벽하지 않다는 걸 알게 하는 것처럼 어떤 서비스에 알고리즘이 작동하고 있는지 알리고, 이를 의심하고 비판해보는 경험을 주고, 나아가 변화하는 기술에 판단하고 대응할 수 있는 ‘디지털시민성’을 키워야 한다”고 지적했다.

▲ 그래픽= 이우림 기자.
▲ 그래픽= 이우림 기자.

오세욱 한국언론진흥재단 선임연구위원은 “무엇이 사람이 한 것인지, 기계가 한 것인지를 밝히는 게 중요하다”고 지적했다. 그는 “사람들은 기계가 내린 의사결정이 무엇인지 이해하고, 기업에 개선을 요구하고, 기업은 ‘피드백’을 받아 알고리즘이 사회에 도움이 되는 방향으로 설계할 수 있도록 하는 게 알고리즘 리터러시라고 본다”며 “알고리즘으로 인해 배제될지 모르는 사람들이 깨어있어야 한다. 그런 측면에서 기본적인 소양 교육으로서 리터러시가 필요하다”고 했다. 그는 기업에 자동화된 의사결정과 관련한 정보 공개를 위한 사회적인 압력이 필요하다고도 했다.

뉴스 리터러시와 마찬가지로 알고리즘 영역에서도 언론의 역할이 중요하다. 미국 탐사보도 매체 ‘프로퍼블리카’는 페이스북 광고 정보를 수집하는 툴을 배포해 이용자들의 계정에 노출되는 광고 노출 현황을 취합했고, 그 결과 페이스북이 남성에게만 우버의 운전자 구직 광고를 노출한다는 사실을 드러냈다.

오세욱 위원은 “사람들은 알고리즘을 잘 모르고 궁금해 하지 않는 면이 있다. 그렇기 때문에 저널리즘이 중요하다. 권력이 되고 있지만 드러나지 않는 알고리즘을 감시하고 견제하고 알려내야 한다. 알고리즘이 공학의 영역이라고 멀리할 수 있지만 세상이 공학으로 구성된다면 협업 등을 통해 이해할 필요도 있다. 프로퍼블리카의 보도도 기술진과 협업한 결과”라고 덧붙였다.

저작권자 © 미디어오늘 무단전재 및 재배포 금지