지난 달 미국의 과학저널 사이언스에는 IT업계와 언론계에 근무하는 사람들이 모두 흥미있어할 논문이 하나 실렸다. `사람들은 페이스북에서 얼마나 사상적으로 다양한 뉴스와 의견을 접하는가(Exposure to ideologically diverse news and opinion on Facebook)'라는 이 논문은 내용도 흥미롭지만 제1저자의 소속기관이 눈길을 끌었다: Facebook, Menlo Park, CA 94025, USA. 페이스북에 소속된 과학자의 논문이었던 것이다.

대학이 아닌 기업의 연구소에서 일하는 과학자나 엔지니어들이 연구저널에 논문을 싣는 일은 드물지 않다. 하지만, 무려 1천만 명에 이르는 사람들을 대상으로 6개월에 걸쳐 이루어진 연구는 사이언스의 역사상 유례가 없을 것이다. 물론 그런 실험이 불법은 아니다. 우리가 페이스북에 가입할 때 동의한 정보사용 동의서에 들어있는 내용이다...아마도. 일반적으로 사이언스지에 등장하는 심리학 논문의 실험군이 10~20명 정도인 것을 생각하면 페이스북에서 사용자들을 대상으로 진행하는 실험은 그 규모와 예측의 정확도에서 타의 추종을 불허한다. 페이스북을 "그저 또 하나의 싸이월드"라고 우습게 보는 사람들이 흔히 간과하는 것이 바로 우리를 우리 자신보다 더 잘 알아내려는 페이스북의 그런 가공할 노력이다.

   
Pixabay, CC0.
 

그 논문이 다루고 있는 내용은 페이스북의 알고리듬을 둘러싼 논쟁이다. 알다시피 우리가 페이스북에서 접하는 뉴스피드는 시간 순으로 우리에게 보여지는 것이 아니다. 이 알고리듬은 우리의 페이스북 사용습관을 분석해서 우리가 관심가질 만한 내용을 골라 상단에 배치하고, 우리가 싫어할 것 같은 포스트는 밑으로 내린다. 때로는 더 나아가 일부 글들은 아예 우리의 시야에서 감춰버린다. 가끔 친구가 올렸는데 내가 못 보고 지나가는 뉴스피드가 발생하는 것은 (원님 행차 때 큰 길에서 거지들이 눈에 안띄게 잡아 가두는 식으로) 안보이는 곳에서 열심히 일하는 페이스북의 알고리듬 때문이다.

문제는 이러한 알고리듬이 온라인에서의 의견의 다양성을 해친다는 데 있다. 흔히 "메아리방(echo chamber)"라고 불리는 이 현상은, 특정한 정보나 사상이 일단의 사람들 사이에서 돌고 돌면서 관점이 다른 외부 정보의 유입을 막아 그 집단에 속한 사람들은 왜곡된 관점만을 갖게되는 것을 의미한다. (이문열의 독자라면 그의 단편, '칼레파타칼라'를 떠올릴 것이다). 진보적인 사람들이 보수적인 의견을 페이스북에서 보는 싫어하기 때문에 페이스북 알고리듬이 알아서 감춰준다면, 그 사용자는 세상 사람들이 대부분 자신처럼 진보적으로 생각한다는 착각에 빠질 수 있는 것이다. 물론 반대의 경우도 마찬가지다.

페이스북만 그렇게 하는 것도 아니다. 구글도 검색의 정확도를 높이기 위해 같은 방법을 사용한다. 일라이 패리저는 그의 책 '필터 버블(Filter Bubble)'에서 구글에서 "BP"라는 단어를 검색하면 어떤 사람은 그 회사에 대한 투자정보를, 다른 사람은 기름유출사고를 검색결과 상단에서 보게 된다는 것을 들면서, 우리가 온라인에서 그렇게 다양성을 잃은 정보만을 습득하고 있어서 여론의 양극화가 심해진다고 진단한다. 하지만 그런 필터의 버블 속에서는 내가 원하는 정보를 빠르게 찾을 수 있고, 메아리방에서는 나와 생각이 같은 사람들과만 대화를 할 수 있기 때문에 우리는 그런 서비스에서 더 많은 시간을 보내고, 그렇게 머무르는 시간은 회사들에게는 수익을 가져다 준다.

   
Pixabay, CC0.
 

서두에서 이야기한 논문은 (당연한 이야기겠지만) 페이스북이 메아리방 효과를 일으키지 않는다고 주장한다. 아니, 좀 더 정확하게는 사람들이 페이스북에서 자발적으로 읽고 싶은 정보만을 골라서 섭취하기 때문에 메아리방 효과가 일어나는 것이지, 페이스북의 알고리듬은 그다지 큰 영향을 미치지 않는다는 것이 논문의 결론이다. 하지만 반론도 많다. 사용자들이 구미에 맞는 내용들만을 클릭했다고 하지만, 그들이 클릭하기 이전에 이미 페이스북의 알고리듬이 선별적으로 뉴스피드를 제공하기 때문에 동등하게 비교해서는 안된다는 것이다. 결국 그 논문을 통해서 페이스북이 펴는 주장은, 페이스북은 이미 양극화된 여론의 지형을 있는 그대로 반영할 뿐, 여론의 양극화를 조장하지 않는다는 것이다. 여기에 페이스북의 고민이 있다. 사람들은 자신과 주장이 다른 사람들의 글이 눈에 많이 띄면 페이스북을 떠날 것이다. 하지만, 그렇다고 사람들이 좋아하는 포스트만 보여주면 비정상적인 여론형성에 개입한다는 윤리적인 비판을 받게 된다.

엉뚱한 이야기지만 그 문제의 해결책은 에두아르도 수자라는 이름의 한 거위농장 주인이 갖고 있다. 이 사람은 푸아그라용 거위 간을 맨하탄의 고급식당에 비싼 값에 공급한다. 푸아그라는 거위의 목에 파이프를 집어 넣어 강제로 먹이를 퍼붓는 잔인한 사육방식으로 인해 동물애호가 단체들의 보이코트를 받아왔는데, 수자가 그 문제를 해결한 것이다. 일반농장에서 거위에게 사료를 강제로 먹여만 하는 이유는 거위의 습성에 있다. 거위의 간이 요리에 이용할 수 있을 만큼 커지기 위해서는 거위들이 (겨울을 나기 위해) 늦가을에 폭식을 해야 하는데, 매일매일 사료를 주는 농장에서 자라는 거위는 먹이없는 겨울을 걱정하지 않아서 절대로 폭식을 하지 않기 때문에 간이 붓지 않는다. 심지어 농장의 울타리만 높아도 안심을 하면서 폭식을 피한다.

   
Pixabay, CC0.
 

그러한 거위의 행태를 연구한 수자는 사료(feed)를 거위들이 눈치 못채게 조금씩 불규칙적으로 주고, 울타리를 없애서 맹금류나 야생동물들의 위험에 일부러 노출을 시킨 것이다. 그렇게 하자 농장의 거위들이 자신을 농장거위가 아닌 야생의 거위처럼 생각하기 시작했고, 겨울이 다가오자 먹이가 없어질 것에 대비해 폭식을 하면서 간의 크기가 커진 것이다. 물론 단점은 있었다. 다른 동물에 잡혀 먹히는 거위들이 20~30퍼센트가 된다. 하지만, 그렇게 얻어진 최상급 거위간은 그런 손실을 만회하고도 남았다.

페이스북이 하고 있는 것이 바로 그 농장 주인과 같은 미세한 뉴스피드(newsfeed) 조절이다. 사용자들이 들어와서 몇 개의 포스트를 읽고 앱을 닫는지를 알아내고, 한 번에 보여지는 새로운 포스트의 숫자를 조절한다. 읽어야 할 내용이 너무 많으면 아예 읽기를 포기하고 서비스를 떠난다는 것을 실험을 통해 배웠기 때문이다. 우리의 성향을 파악해서 우리의 구미에 맞는 포스트를 보여주되, 너무 눈에 띄지 않게 적당히 싫어하는 포스트도 섞어 넣는 것이다. 그 결과, 우리는 온라인 세상은 현실과 다르지 않다고 느끼는 것이다. 다만, 조금 더 재미있고, 조금 더 달콤한 세상일 뿐.

저작권자 © 미디어오늘 무단전재 및 재배포 금지