가짜 뉴스의 사회심리학
1. 가짜 정보 문제, 기술로 해결할 수 있을까
구글, 유튜브, 페이스북과 같은 온라인 플랫폼이 확산됨에 따라 영향력이 커지면서 부작용도 함께 확대되고 있다. 정보 생산, 검색, 공유를 주된 목적으로 개발된 이들 서비스가 대중화하면서 페이크 뉴스와 왜곡정보의 생산, 유통, 공유 플랫폼으로 기능하는 부작용이다. 구글, 유튜브, 트위터와 같은 개방형 플랫폼만이 아니라 페이스북, 카카오톡과 같은 폐쇄형 사회관계망 서비스에서도 온라인 소통의 부작용은 증폭되고 있다. 가짜 뉴스의 확산이 대표적이다. 2016년 미국 대통령선거와 2017년 한국의 대통령선거는 가짜 뉴스가 개인과 사회에 끼치는 영향을 묵과할 수 없는 문제로 부각시켰다.
해당 서비스를 제공하는 플랫폼 기업들은 신뢰성 위기를 맞아 다양한 대응책을 내놓고 있다. 대응책은 기술적 방법, 법적·제도적 방법, 교육·문화적 방법 등 다양하다.
수잔 보이치키 유튜브 CEO는 2018년 3월 의심스러운 유튜브 동영상에 ‘정보 단서’ 기능을 추가해, 허위 정보의 파급을 막겠다는 방침을 발표했다. 유튜브 실행화면에 정보 단서 링크가 있는 텍스트 상자를 만들어, 이용자가 출처와 내용이 의심스러운 동영상이라고 생각할 경우 관련된 추가정보를 손쉽게 검색할 수 있도록 하는 방법이다. 이 텍스트 상자에서 제공하는 링크는 온라인 백과사전인 위키피디아의 관련 사항으로 바로 연결된다.
유튜브의 ‘정보 단서’ 기능은 2018년 2월14일 미국 플로리다 마조리 스톤맨 더글러스 고교에서 벌어진 총기난사 사건이 계기다. 사망자 17명 등 52명의 사상자가 발생한 이 사건으로 미국내 총기규제 여론은 더 강화됐다. 총격사건의 생존자 데이비드 호그 학생은 전미총기협회의 해체를 요구하고 총기 규제 캠페인에 앞장섰다. 그런데 호그가 사실은 학생이 아니라 재난 전문 배우라는 내용의 가짜 뉴스 동영상이 유튜브에서 확산됐다. 유튜브는 뒤늦게 해당 동영상을 삭제했지만, 이미 20만건 넘게 조회됐고 호그 학생을 비난하는 총기 소유 지지자들의 논거로 활용된 상태였다. 사실이 드러나면서 유튜브에 대한 비판이 높아지자, 유튜브가 이용자들에게 가짜 뉴스를 검증할 수 있는 기술적 방법을 제공한 것이 ‘정보 단서’ 텍스트 상자다.
구글, 페이스북, 트위터 등 온라인 플랫폼기업들은 2017년 11월 가짜 뉴스와의 전쟁을 위한 ‘신뢰 프로젝트(Trust Project)’를 발족시켰다. 미국 캘리포니아주 산타클라라 대학의 마크쿨라(Markkula) 응용윤리센터가 제공하는 이 프로젝트는 기사의 투명성을 높이기 위해 이용자들이 플랫폼에 올라온 기사의 배경을 직접 체크할 수 있도록 하는 서비스다.
해당 기사를 보도한 언론사, 해당 언론사의 윤리 기준, 언론사의 자본 구성, 기자의 과거 기사목록 등 기자에 관한 정보를 제공하는 서비스다. 이용자에게 기사의 배경에 관한 다양한 정보를 제공해 해당 기사가 신뢰할 수 있는 정보인지를 판단하도록 돕는다는 취지다. 신뢰 프로젝트에서 사용되는 언론사 기준과 기자의 상세 정보 등 8가지 신뢰 지표는 미국의 75개 이상의 언론사가 참여해 만들어졌다. 프랑스에서도 구글과 페이스북이 언론사들과의 협업으로 뉴스의 팩트체크를 담당하는 ‘크로스체크’ 사이트를 2017년 3월 개설했다.
가짜 뉴스 확산의 온상으로 지목받는 페이스북도 다양한 대응책을 시도하고 있다. 페이스북은 2016년 12월 외부의 팩트체크 전문가들에게 뉴스피드에 올라오는 가짜 뉴스에 빨간색 깃발을 붙여 ‘논쟁중’인 글임을 알리고 이용자 스스로 팩트 체크를 하도록 하는 대책을 제시했다. 가짜 뉴스일 가능성이 높다는 것을 이용자에게 알리는 페이스북의 ‘빨간 깃발’은 오히려 가짜 기사의 주목도를 더 높이는 부작용도 낳았다. 페이스북은 “자체 조사 결과 빨간 깃발은 기사에 대한 잘못된 믿음을 강화하는 역효과를 불러올 수 있는 것으로 파악됐다”며 ‘논쟁중’ 깃발을 없애고 관련 기사를 붙이는 방식으로 이용자들의 판단을 돕기로 했다.
비기술적 방법도 동원되고 있다. 마크 저커버그 페이스북 최고경영자는 2017년 실적 발표회에서 가짜 뉴스 등을 식별하기 위해 인력 1만명을 채용할 계획이라고 밝혔다. 그동안 구글과 페이스북, 유튜브 등은 콘텐츠를 분류하고 노출하는 과정에서 최대한 알고리즘과 자동화에 의존하고 사안별 사람의 개입과 판단을 최소화하는 방침을 유지해왔으나, 가짜 뉴스 확산이후 기존의 방침을 변경해 사람의 개입을 늘려가고 있다. 유럽연합은 법과 제도를 통한 규제 강화로 온라인상의 거짓 정보에 대한 대응을 강화하고 있다. 독일 정부는 가짜 뉴스와 혐오 발언을 삭제하지 않은 소셜네트워크서비스 업체에 대해 최대 5000만유로(약 600억 원)의 벌금을 물리는 법안을 추진하고 있다.
2. 디지털 사회에서 가짜 정보의 영향
플랫폼 기업들이 왜곡정보, 가짜 뉴스와의 전쟁에 적극 나서는 이유는 허위정보 유통이 가져오는 다양한 병폐와 비용 때문만이 아니다. 가짜 정보의 유통을 제대로 식별하고 차단하지 못할 경우 해당 기업의 존속과 성장 자체가 위협받는 상황이 된다는 위기감 때문이다. 구글, 페이스북 등 플랫폼 기업들은 단지 정보와 뉴스의 소통수단과 오락도구로만 기능하는 게 아니라, 온라인 상거래를 비롯해 현실과 연계되는 다양한 서비스를 통해 경제생활과 일상생활 깊숙이 필수적인 플랫폼으로 작동하고 있다. 서비스와 기술에 대한 이용자의 의존도가 깊은 상태에서 해당 플랫폼의 신뢰도는 핵심적이다. 허위 정보 유통으로 인한 부작용을 통제하지 못할 경우 신뢰도가 추락하게 되고 서비스와 기업의 가치는 위기에 처하게 된다. 페이스북 주가가 2018년 7월26일 19%가 추락해, 하룻만에 1197억달러(약 134조원)의 가치가 날아가버린 게 대표적이다. 허위정보 유통과 개인정보 침해 등으로 페이스북에 대한 이용자 신뢰가 추락한 데 따른 결과였다.
디지털 기술과 서비스에 대한 활용과 의존도 증대에 걸맞은 신뢰도 제고가 필수적이지만, 현실은 반대로 나타나고 있는 게 현재 유튜브, 페이스북, 구글 등 개방형 플랫폼의 문제이다. 구글과 페이스북은 인공지능을 이용한 가짜 뉴스와 악성 댓글을 걸러내는 기술에 뛰어들었고, 미국 국방부 방위고등연구계획국(DARPA)는 세계 인공지능 전문가들을 대상으로 한 가짜 동영상 제작, 감식 경진대회를 개최한다. 하지만, 허위정보와 가짜 뉴스 처리에 인공지능과 빅데이터 등 첨단 디지털 기술을 활용하는 것도 새로운 부작용을 가져온다는 점에서 어려운 문제이다.
3. 기술적 시도의 한계
2017년 12월 ‘딥페이크’라는 아이디가 인공지능 기술을 활용한 유명 연예인의 위조 영상물을 인터넷에 공개했다. 스칼릿 조핸슨, 엠마 왓슨 등 유명 영화배우의 얼굴을 성인 영상물에 합성했는데 진위 식별이 불가능한 수준이다. 국내에도 여성 연예인들을 합성한 성인 영상물이 유통돼 피해가 벌어지고 있다. 구글은 2018년 5월 연례 개발자대회(I/O)에서 사람 목소리를 완벽하게 흉내내는 인공지능 음성비서 서비스 듀플렉스를 공개했다. 미용실과 식당에 전화를 걸어 상대의 질문과 답변에 자연스럽게 응대하고 주어진 과업을 완수하는 인공지능을 매장 종업원 누구도 눈치채지 못했다. 인공지능 기술은 가짜 정보 감식만이 아니라 진짜같은 가짜를 만들어내는 데도 동일하게 활용된다.
진짜 같은 가짜 동영상이 가짜 뉴스에 활용돼 대통령 연설이나 유명인의 증오범죄 유발 발언 등을 만들어내 유포될 경우 주식시장 폭등락, 폭동과 소요 등 재앙적 결과로 이어질 수 있다.
많은 전문가들은 진짜 같은 가짜를 만들고 식별하기 위한 인공지능 경쟁이 결국은 진짜와 구별하기 어려운 가짜를 만들어내는 결과로 이어질 것이라고 전망한다. 이는 군비경쟁처럼 승자 없이 모두가 잠재적 패자의 처지가 되는, 승산없는 게임이 될 가능성이 높다. 냉전시기 초강대국 간 군비 경쟁은 상호 확증파괴 시스템으로 이어져, 지구 전체를 파괴시킬 수 있는 대량 살상무기 보유로 이어졌다. 2013년 세계경제포럼은 보고서를 통해 “대량의 잘못된 디지털 정보가 현대사회 주요 리스크의 하나”라고 주장했다. 컨설팅그룹 가트너는 2017년 10월 미래전망 보고서를 통해 “2022년이 되면 대부분의 사람들이 진짜 정보보다 가짜 정보를 더 많이 접하게 될 것”이라는 전망을 내놓았다. 기술이 진짜 같은 가짜를 놓고 쫓고 쫓기는 경쟁을 하고 있지만 기술만으로는 해결이 불가능한 문제이다.
4. 가짜 정보 문제 해결을 위한 방안
이용자들이 자유롭게 생산과 유통에 참여하는 개방형 플랫폼의 디지털 사회에서는 신뢰 확보가 필수적이라는 점에서 기술적 시도가 계속되지만, 기술 발달로 인해 진짜와 가짜 정보의 식별은 더욱 어렵고 복잡한 문제가 되는 역설적 상황이 예상된다.
소셜미디어에서 유통되는 가짜 정보를 기술적 방법만으로 해결하려는 시도가 효과적이지 못한 배경에는 문제가 인간의 본능적인 인지 구조와 심리적 성향에 뿌리를 두고 있다는 점도 있다. 허위 정보가 만들어지고 유통되어 피해를 일으키는 까닭은 소셜미디어의 구조와 기술적 특성 때문이 아니라, 자극적이고 유혹적인 허위 정보에 끌리는 인간의 인지적·심리적 본능을 활용하기 때문이다.
클레어 와들(Claire Wardle)과 호세인 더락샨(Hossein Derakhshan)은 “소셜미디어 플랫폼을 작동시키는 알고리즘은 우리의 감정적 반응을 이용하는 방식으로 구성돼 있지만, 가짜 뉴스와 허위정보를 막기 위해 제시된 해결책은 사람의 이성적 대응을 전제로 하고 있다”고 주장한다.1
디지털 사회의 신뢰 구조를 위협하는 가짜 뉴스와 같은 온라인 허위 정보는 기술과 서비스가 대중화되면서 나타나는 일반적 현상이다. 플랫폼 기업들을 중심으로 디지털 신뢰 확보를 위한 다양한 기술적 방법이 제시되고 있지만 이는 문제에 대한 종합적이고 장기적 차원의 시도와 함께 진행될 때 효과를 거둘 수 있다. 기술적 방법과 함께 법과 제도의 마련, 디지털 윤리와 비판적 사고를 기르는 미디어 리터러시 교육과 같은 비기술적인 방법이 동시에 추구되어야 하는 과제이다.
※ 해당 저널의 정식 표기명은 KISO 저널로 위 게시물을 참고문헌으로 표기하실 때에는 간행물명을 「 KISO 저널」로 명시하여 주시기 바랍니다.
※ 참고문헌 정식 표기명 : KISO 저널
- The Guardian(2017.11.10.), “How did the news go ‘fake’? When the media went social”(Claire Wardle, Hossein Derakhshan), Available: https://www.theguardian.com/commentisfree/2017/nov/10/fake-news-social-media-current-affairs-approval [본문으로]