기사 공유하기

유튜브가 위키피디아를 활용해 음모론이나 가짜 정보 등을 잘 가려낼 수 있을까. 유튜브 최고경영자 수잔 보이치키(Susan Wojcicki)는 지난 3월 13일(현지 시간) 텍사스 오스틴에서 열린 SXSW(South by Southwest) 행사에서 일명 정보 단서들(information cues)이라는 기능을 소개하며 유튜브에서의 음모론 확산을 방지하겠다고 했다.

쉽게 말하면, 유튜브 플레이어에 일종의 정보 단서 링크가 있는 텍스트 박스를 두어, 이용자가 이를 클릭하면 유튜브의 영상과 연관된 추가적인 정보를 검색할 수 있게 한다는 것이다. 이 정보 단서 링크는 위키피디아와 연결되어 이용자들은 유튜브 동영상의 내용이 미심쩍을 때 언제든 화면의 링크를 클릭해 위키피디아에서 세부적인 정보를 확인할 수 있다.

수잔 보이치키가 텍사스 오스틴에서 열린 SXSW에서 대담을 하고 있다. (출처: SXSW YouTube Channel)
수잔 보이치키가 텍사스 오스틴에서 열린 SXSW에서 대담을 하고 있다. (출처: SXSW YouTube Channel)

유튜브의 이번 시도는 현지 시간으로 지난 2월 14일 발생한 미국 플로리다의 마조리 스톤맨 더글러스 고등학교(Marjory Stoneman Douglas High School) 총기 난사 사건에서부터 출발한다. 사망자 17명 등 총 52명의 사상자를 낸 이번 총기 사건은 미국 내 총기 규제 여론을 일으키는데 큰 몫을 했다.

그런데 여기서 살아남은 생존자 데이비드 호그(David Hogg)에 대한 가짜 뉴스가 퍼지면서 유튜브 논란이 촉발됐다. 생존자 데이비드 호그는 최근 친구들과 함께 전미총기협회(NRA)의 해체를 요구하고 총기 규제를 주장하는데 앞장섰다. 그런데 이 데이비드 호그가 사실은 재난 전문 배우라고 소개되는 가짜 뉴스 동영상이 유튜브에 돌게 된 것이다.

2월 21일 유튜브는 데이비드 호그가 재난 전문 배우라고 소개된 “DAVID HOGG THE ACTOR”라는 영상을 삭제했다. 유튜브로서는 가짜 뉴스 영상을 막기 위해 다급히 문제를 처리한 것이지만 이미 이 동영상의 조회수가 20만회를 넘은 후에 이뤄진 조처였다.

트럼프 지지자라고 밝힌 트위터 이용자들은 FBI의 공항 보안 요원으로 재직한 것으로 알려진 아버지에 의해 데이비드 호그가 조정되고 있다고 의혹을 재기했고 트럼프의 아들 도널드 트럼프 주니어(Donald Trump Jr.)는 이러한 주장에 대해 트위터에서 ‘좋아요’를 누르기도 했다. 이처럼 데이비드 호그가 재난 전문 배우이고 FBI 출신 아버지의 조종을 받는다는, 그 진위가 검증되지 않은 가짜 뉴스가 유튜브에 업로드 되자마자 이미 큰 싸움과 논란이 벌어졌다.

유튜브에 대한 대중들의 반응은 싸늘했다. 거듭되는 총기 난사 사건으로 미국 내 총기 규제에 대한 여론이 뜨겁게 일어나고 있는 와중에 데이비드 호그를 매도할 의도가 보이는 이러한 가짜 뉴스는 유튜브를 비난의 대상으로 만들었다. 유튜브는 역시 허위, 불법, 유해 정보를 생산하는 서비스이며 이를 관리하는 것이 앞으로도 쉽지 않을 것이라는 일부 이용자들의 인식을 강화하는 결과를 낳게 된 것이다.

플로리다 고등학교 총기 난사 사건 생존자 데이비드 호그 인터뷰를 다룬 매체들 (출처: YouTube)
플로리다 고등학교 총기 난사 사건 생존자 데이비드 호그 인터뷰를 다룬 매체들 (출처: YouTube)

사건이 걷잡을 수 없이 커지자 수잔 보이치키는 유튜브에서 확산될 수 있는 음모론과 허위 정보에 대한 ‘기술’적인 방지 방법을 제시했다. 그런데 이것도 이용자들이 반기는 분위기는 아니다. 음모론이나 허위 정보가 의심되는 동영상을 걸러내기 위해 해당 동영상에 관련된 심층 정보를, 이용자들 스스로 찾아볼 수 있도록 위키피디아 링크로 제공한다?

유튜브의 입장에서는 ‘이 동영상에 음모론과 가짜 뉴스가 포함되었을 수 있으니, 주의해서 세부적인 정보들을 위키피디아에서 찾아보세요.’라고 권유해 볼 수 있다.

그러나 이용자들의 입장에서는 ‘내 의지와 상관없이 업로드되는 동영상들에 대해, 그 진위를 파악하기 위해 링크를 활용하라고? 정말 이 동영상이 못미더우면 위키피디아로 다시 정보를 확인해보라는 것인가? 결국, 동영상 내용의 진위를 확인하기 위해 이 힘겨운 작업을 이용자인 내가 스스로 해야 하나?’ 같은 생각이 들 수 있다. (사실 이용자들은 이러한 생각들을 하기도 전에 해당 동영상 내용에 즉각적으로 노출될 것이다.)

결국, 유튜브 동영상에 위키피디아라는 바코드가 붙어있다고 해서 사람들이 해당 동영상을 더 신뢰할 것이라 예단도 어렵고, 그 바코드로 굳이 동영상을 검증하는 귀찮은 작업을 할 것이라 짐작하기 힘들다.

33333

물론 유튜브에서 아직 더 구체적인 계획안이 발표되지는 않았다. 그러나 그 세부적인 계획안이 나오기도 전에 해외 언론들은 ‘유튜브가 위키피디아를 활용해 음모론을 차단하겠다는 계획을 위키피디아에는 미리 알리지도 않았다’, ‘유튜브가 위키피디아에게 짐을 떠넘기고 있다’, ‘유튜브는 뉴스 수용자를 원하지만 책임을 원하지는 않는다’, ‘유튜브의 음모론 문제는 유튜브 자신의 문제이지 위키피디아의 문제는 아니다’ , ‘유튜브가 음모론 단속에 위키피디아의 협조를 얻었지만 그것만으로 충분하지 않을 수 있다’, 기타 등등 유튜브의 이번 조치를 탐탁해하지 않는 논조들을 보이고 있다.

그도 그럴 것이 위키피디아는 본래 이용자들의 집단적인 지성이 조직화되어 창출된 정보 집합체로 이용자들의 자발적인 참여와 끊임없는 수정 및 편집 과정을 통해 발전하는 서비스이다. 그래서 때로는 위키피디아도 사실에 맞지 않는 정보를 노출할 수 있다. 물론 위키피디아에서는 잘못된 정보가 수정되는데 걸리는 시간이 다른 서비스들에 비해 짧다. 이제 워낙 많은 사람들이 참여하니까.

그러나 위키피디아라고 유튜브에서 발생한 음모론을 검증하는데 획기적인 방법론을 가지고 있는 것은 아니다. 그저 유튜브보다는 위키피디아가 심층적인 정보들을 더 많이 다루고 있고, 위키피디아 정보들은 어찌되었든 다수 이용자에 의해 몇 번의 검증 과정을 거치기 때문에 위키피디아를 통해 유튜브 동영상 검증이 보다 체계적으로 이뤄질 것이라는 막연한 기대감이 존재하는 것이다.

검증 돋보기 확인 검사 테스트

지난해 불거진 유튜브의 엘사 게이트 사건과 이번 데이비드 호그에 대한 가짜 뉴스 사건이 벌어진 상황은 그 맥락이 같다. 유튜브가 유해 동영상이나 허위 사실이 포함된 동영상을 사전에 완벽히 걸러낼 수 없다는 점을 보여줬다는 측면에서 말이다.

엘사 게이트[footnote]엘사 게이트: 겨울왕국의 엘사, 마블의 스파이더맨 등 아동이 좋아하는 캐릭터들을 주인공으로 한 애니메이션으로 위장해 폭력적이고 선정적인 장면과 비윤리적인 내용이 담긴 포르노그래피를 유튜브에 유포한 사건(편집자) [/footnote] 당시에는 소아성애(小兒性愛)를 다룬 문제의 동영상에 유명 캐릭터 영상이 포함되었고, 이 영상이 단순히 키즈 콘텐츠로 분류되어 아이들에게 노출되었다. 마찬가지로 데이비드 호그에 대한 가짜 뉴스는 일부 유명 언론사의 영상 출처가 포함되어 있어 해당 동영상의 질적 수준을 파악해 걸러내기 어려웠다고 한다.

이를 보면 어쨌든 알고리즘 기술을 토대로 동영상 내용을 읽어내 큐레이션하는 현재 상황에서는 이와 같은 문제가 쉽사리 사라지지 않을 것이라는 점을 알 수 있다. 마찬가지로 위키피디아의 정보들을 유튜브에 연결하는 서비스로 허위 정보들이 제거될 것이라는 주장도 논리적으로 납득하기는 힘들다.

만일 유튜브에서 음모론 성격의 가짜 뉴스 동영상이 노출되었다고 치자. 운이 좋아 이 동영상과 연결된 위키피디아의 링크가 동영상에 포함된 음모론을 지적해주고 → 이 동영상이 허위 정보를 담고 있다는 것을 알려주며 → 이용자가 이를 잘 판단할 수 있다면 다행이다.

음모론 가짜 뉴스

문제는 위키피디아 링크도 허위 정보를 담고 있거나, 설령 위키피디아 링크가 올바른 정보를 제공한다 해도 이용자에게서 이를 수용할 수 있는 균형잡힌 시각이나 해석 능력이 결여되어 있는 한 음모론과 가짜 뉴스가 제거될 가능성은 낮아진다는 점이다. 여기에 어쩌다가 유튜브의 동영상 내용과 전혀 연관성이 없는 엉뚱한 정보가 링크되기라도 한다면 더 큰 문제를 야기할 수도 있다. 이러한 일들이 축적되면 점차 이용자들은 유튜브의 이 정보 단서 서비스를 그냥 거추장스러운 서비스로 여기게 될 것이 불 보듯 뻔하다.

이번 유튜브의 조처가 아쉬운 점은 많은 요인들이 결합되어 있는 문제를 기술적 시각으로만 바라보는데서 그쳤다는 점이다. 물론 음모론과 가짜 뉴스에 대해 유튜브에 모든 책임을 물을 수는 없다는 걸 잘 알지만 그래도 이번 문제를 해결하는데 있어서는 기술적 조처 외에 더 종합적이고 장기적인 플랜을 제시해보았으면 어땠을까 하는 아쉬움이 남는다.

유튜브에서 음모론이 불거지고 가짜 뉴스가 확산되는 것이 어찌 유튜브만의 책임이겠나.

음모론과 가짜 뉴스는 사회적으로 중요한 뉴스들, 사람들의 수많은 가십거리들, 선의든 악의든 어떤 조직적인 힘에 의해서 폭발되는 이슈들, 이를 수용하는 이용자들의 시각과 의견들이 복잡하게 얽혀져 있는 사안이다. 이걸 사람들이 모를까. 그렇지 않다. 이런 복잡한 문제를 대부분의 사람들은 알지만, 그래도 유튜브가 전 세계 1위의 동영상 사업자이기에 이 문제에 대한 일차적인 책임과 문제 해결의 자세를 기대하고 있는 것이다.

‘종합적이고 장기적인 플랜’ 

말은 좋지만, 그 내용들을 구조적으로 나열하기 어렵고 그렇게 한들 실천하기도 어렵지 않겠냐는 반문부터 나오기 쉽다. 하지만 현재의 기술로 문제가 될 콘텐츠들을 완벽히 걸러낼 수 있는 방도가 없다고 하면 차라리 모든 문제를 투명하게 공론화하고 긴 호흡으로 문제를 바라보는 것이 낫지 않나 싶다.

정보를 다루는 사업자의 입장에서는 빠른 해결이 중요하고 이를 통해 이용자들의 신뢰를 잃지 않는 것이 중요하다. 그러나 빠른 해결이 근본적인 해결로 이어지지 않는다면 문제는 거듭 발생할 수 있다. 그럴 바에야 이참에 음모론과 가짜 뉴스에 대한 총체적인 문제들을 여과 없이 공론화하고 사회 구성원들에게도 이해를 구함과 동시에 동참을 유도할 수 있는 조처가 필요하지 않았냐는 것이다.

정보 사회로 진입하며 정보로 인해 불거지는 문제에 대한 완벽한 해결책은 없다. 문제를 일으키는 기술과 이를 막아내는 기술이 경쟁하며 더욱 진보해나가는 정보 사회의 특성상 완벽히 문제없는 환경을 기대하는 것은 어렵다. 그러니 유튜부의 이번 사건과 조처도 이러한 정보 사회의 한 단면을 보여주는 사례에 지나지 않는다.

유튜브 버퍼링

형태는 다르지만 언제나 있어왔던 문제고 해결되기 힘든 문제의 전형을 보여준다. 그럼에도 불구하고 문제가 발생했으니 해결은 해야 한다. 어떠한 방식으로든. 그런데 정말로 기술적인 조처 외에 할 수 일은 앞으로도 없는 걸까? 오히려 이러한 기술적인 조처가 근본적으로 문제를 해결할 수 없다는 것을 알고 벌이는 단순한 이벤트가 되어가고 있는 것은 아닐까 피로감도 생긴다.

정보 사회에서 정보로 인한 문제는 끊임없이 발생한다. 거듭 강조하지만 기술적 조처로만 이를 해결하기엔 역부족이다. 그로써 문제가 해결된다고 생각하면 나이브한 생각에 불과하다. 인공지능, 사물인터넷, 빅데이터를 기반으로 제4차 산업혁명이 도래하고 있다고 하는데, 인간이 만든 정보에 관한 문제를 해결하지 못한 채 그 새로운 시대를 맞이할 수 있기는 한가. ICT 기술이 접목된 기계에 의해 가짜 뉴스가 난무하는 시대가 오지 않으리란 법은 없는데, 우리는 현재 그 시대에서 불거질 문제들을 애써 외면하고 있는 것은 아닌가.

유튜브 사건으로 확장된 사고가 쓸데없이 거기까지 미치고 말았다.

[divide style=”2″]

참고 문헌 

  • Business Insider. (2018. 2. 20.). Some of Trump’s most fervent supporters have started to criticize a school-shooting survivor who has made a flurry of media appearances.
  • CNN. (2018. 2. 21.). School shooting survivor knocks down ‘crisis actor’ claim.
  • Columbia Journalism Review. (2018. 3. 19.). YouTube wants the news audience, but not the responsibility.
  • Forbes (2018. 3. 18.). YouTube’s Conspiracy Theory Problem Is Its Own, Not Wikipedia’s.
  • Fortune (2018. 3. 14). YouTube Enlists Wikipedia in Its Conspiracy Theory Crackdown. But That Might Not Be Enough.
  • News Factor (2018. 3. 15.). YouTube Teams with Wikipedia To Crack Down on Conspiracy Videos.
  • The New York Times. (2018. 2. 20.). Right-Wing Media Uses Parkland Shooting as Conspiracy Fodder.
  • The New York Times. (2018. 3. 20.). YouTube May Add to the Burdens of Humble Wikipedia.
  • The Verge. (2018. 3. 14.). YouTube didn’t tell Wikipedia about its plans for Wikipedia.
  • The Week (2018. 2. 20.). Parkland shooting survivor David Hogg swats down Donald Trump Jr. as ‘immature, rude, and inhumane’.

[divide style=”2″]

키사 KISA 리포트

관련 글