최근 연예인들이 당혹스러운 일을 겪고 있다. 자신의 얼굴을 합성한 선정적인 영상이 인터넷을 통해 유포됐기 때문이다. 이 같은 영상은 ‘딥페이크’라 불린다. 지난해 말 ‘deepfakes’라는 ID를 가진 미국 네티즌이 유명 배우의 얼굴과 포르노 영상을 합성하면서 논란이 시작됐다.

4차 산업혁명이라는 표현이 ‘허구성’ 짙다는 비판을 받지만 인공지능 중심의 기술혁신은 이미 시작됐고 새로운 시대의 미디어는 이전과는 다른 과제를 안게 됐다. 특히, 인공지능을 활용한 ‘딥페이크’ 기술은 이미 궤도에 올랐다. 미국에서 딥러닝을 통해 만든 버락 오바마 전 미국 대통령의 얼굴은 실제 얼굴과 구분하기 힘들 정도다. 음성 역시 시간이 흐를수록 정교해지고 있다. 인공지능이 몇 시간 만 학습해도 손석희 JTBC 보도담당 사장이나 문재인 대통령의 목소리를 그럴 듯하게 흉내 낸다.

▲ 미국 워싱턴대의 한 연구팀이 제작한 버락 오바마 전 미 대통령 딥페이크 영상. 오른쪽이 인공지능이 만든 오바마 대통령이다.
▲ 미국 워싱턴대의 한 연구팀이 제작한 버락 오바마 전 미 대통령 딥페이크 영상. 오른쪽이 인공지능이 만든 오바마 대통령이다.

문제는 ‘가짜뉴스’에 접목됐을 때다. 미국 매체 ‘버즈피드’는 오바마 합성 영상을 가리켜 “당신은 페이크뉴스와 프로파간다의 미래를 보고 있다”고 지적했다. 만일 조작된 음성과 영상이 ‘인종차별 발언’을 쏟아낸다면 어떻게 될까. 미국 매체 ‘더애틀랜틱’은 사람들이 비디오 전반에 의구심을 제기할 수 있다고 경고했다. 예를 들어 정치인 비리에 대한 영상이 나오면 사람들은 눈에 보이기 때문에 믿었지만 앞으로는 ‘딥페이크’라 여기며 부인할 수 있다는 지적이다.

미디어 분야에서 인공지능 기술 발전이 가져올 또 다른 변화는 알고리즘을 통한 콘텐츠 배열방식의 고도화다. 이 같은 알고리즘이 이용자를 만족시키고 있지만 보고 싶은 것만 보게 하는 ‘필터버블’을 부추긴다는 지적은 이전부터 제기돼왔다. ‘5·18 광주 사태에 직접 북한군으로 내려왔었던 김명국씨의 직접 충격 증언’, ‘(대특보) 안희정 김지은 비공개 CCTV 영상 확보! 영상 자세히 보니 대박이네’처럼 사실과 다른 내용을 담고 있는 자극적인 제목이지만 취향을 분석해 콘텐츠를 추천하는 유튜브에서 이들 영상은 수십만 조회 수를 기록하고 있다.

편향성을 부추기는 알고리즘은 그 자체로 문제지만 딥페이크 기술을 만나게 되면 지금과는 비교하기 힘들 정도의 파급력을 갖게 된다. 더구나 최근 네이버와 카카오 모두 인공지능 알고리즘을 전면에 도입하겠다고 발표한 바 있다. 어떻게 대응해야 할까.

▲ 5.18 광주민주화운동 북한군 개입설을 기정사실화한 인터넷 콘텐츠들이 수십만 조회수를 기록했다.
▲ 5.18 광주민주화운동 북한군 개입설을 기정사실화한 인터넷 콘텐츠들이 수십만 조회수를 기록했다.

새로운 현상인 ‘딥페이크’에 대한 대책은 충분히 논의되지 않았다. 버즈피드는 △속단하지 마라 △소스를 살펴봐야 한다 △온라인상에 또 있는 자료인지 확인하라 △입 모양을 관찰하라 △영상을 천천히 다시 볼 것 등 ‘딥페이크를 탐지하는 방법’을 제시했지만 상당 부분 기술이 발전되면 이 또한 유용한 팁이 되지 않을 가능성이 높다.

김위근 한국언론진흥재단 선임연구위원은 “딥페이크로 만든 콘텐츠와 뉴스 콘텐츠가 동일한 플랫폼에서 유통되고 소비되는 과정에서 속지 않으려면 시민들이 일일이 팩트를 확인해야 한다. 이런 점이 미디어 교육의 필요성을 부각시킨다”면서도 “미디어 교육만으로 문제를 완전히 해결할 수는 없다”고 밝혔다.

알고리즘이 갖는 확증편향 문제는 ‘알고리즘의 투명성’을 높이는 데서 시작해야 한다는 지적이 나온다. 오세욱 한국언론진흥재단 선임연구위원은 “알고리즘 공개를 법으로 강제하는 건 바람직하지 않다”면서 “언론재단이 연구한 좋은 기사 선별 알고리즘을 공개의 기준점으로 삼고 ‘이 정도는 공개해야 한다’고 요구할 수는 있을 것”이라고 밝혔다. 언론재단은 2016년 문화체육관광부 신규사업의 일환으로 추진됐던 ‘뉴스트러스트 위원회’의 논의를 거친 끝에 ‘좋은 뉴스’를 선별하는 알고리즘을 만들었다. 이 알고리즘은 △기자명 △기사의 길이 △인용문의 수 △수치 인용 수 △기사 본문 중 인용문 비중 등 11개 항목을 통해 어느 정도까지 가중치를 두는지 구체적으로 밝히고 있다는 점에서 포털과 구글이 공개해온 알고리즘의 원칙과는 다르다.

사회적 참여와 압력으로 알고리즘을 개선하도록 요구해야 한다는 지적도 있다. 김위근 연구위원은 “사회적 합의만 끌어낼 수 있다면 (배열은) 사람이 해도 되고 알고리즘이 해도 된다. 포털과 언론사뿐만 아니라, 이용자 즉 시민이 여기에 참여해야 한다”고 지적하며 “최근 포털 논의에서 시민 참여가 배제됐다는 점에서 아쉽다”고 말했다. 김동원 한국예술종합학교 강사 역시 “이용자가 질적 평가를 하고 그 반응을 수렴할 수 있는 창구가 부재한 게 문제”라며 “이런 방식으로 다양성의 가치를 알고리즘에 반영하는 등의 개선을 요구해야 한다”고 말했다.

기술적 변화가 크든 작든 근본적으로 ‘허위 콘텐츠’가 힘을 얻는 것은 결국 ‘언론의 불신’과 무관하지 않다는 지적도 있다. 김위근 연구위원은 “뉴스 생산 과정에서 게이트키핑과 팩트체킹이 이뤄지는 언론매체라 한다면 보도내용에 대한 신뢰는 어느 정도 확보될 수 있다”면서 “소위 가짜뉴스를 시민들이 소비하고 이를 믿는 현실의 타개책은 언론매체의 사회적 신뢰도가 높지 않다는 반성에서부터 시작돼야 한다”고 지적했다.

저작권자 © 미디어오늘 무단전재 및 재배포 금지