온라인 혐오표현 규제는 왜 어려운가?

“혐오표현은 사회적으로 파괴적인 영향을 미치는 언어적 표현이다.”(Alexander Tsesis, 2002).

미국 플로리다 주립대학 법학과의 체시스 교수가 쓴 책 <혐오표현이 어떻게 해로운 사회 운동의 길을 닦는가>에서 혐오표현들이 역사적으로 소수집단에 대한 편견과 차별을 조장하며, 종종 폭력적인 사회적 운동의 기폭제가 되어왔음을 잘 드러낸다(Tsesis, 2002). 그는 나치 독일의 반유대주의, 미국의 인종차별, 인디언 추방 정책 등을 예로 들며, 혐오표현이 어떻게 사회적 적대감을 조장하고, 극단적인 행동으로 이어지는지 분석했다. 그는 혐오표현이 인간의 기본적 인권을 침해하고, 사회적 파괴를 가져오는 것과 밀접하게 관련이 있다고 주장한다.

디지털 확산 시대에서 온라인 혐오표현의 규제는 중요하면서도 복잡한 과제이다. 혐오표현은 특정 집단에 대한 부정적인 고정관념과 편견을 강화하고, 이는 사회적 분리와 대립을 조장한다. 또한, 이러한 언어적 폭력은 대상 집단에 심리적, 사회적 피해를 주며, 그들의 기본적 인권을 침해한다.

혐오표현을 바라보는 이론적 관점들

혐오표현에 대한 정의는 다양한 관점에서 이루어져 왔다. 대표적인 개념 정의 방식은 세 가지로 분류된다. 첫 번째 관점은 내용 기반 관점으로 불린다. Parekh(2012)와 Post(2009)의 연구에 따르면, 혐오표현을 특정 집단에 대한 증오를 표현하거나 조장하는 것으로 정의한다. 이 관점은 언어의 구체적인 내용과 그것이 전달하는 메시지에 초점을 맞추며, 혐오표현이 민주 사회에서 의견 표현의 자유와 어떻게 균형을 이루어야 하는지를 탐구한다. 이러한 접근은 혐오표현의 구체적인 의미와 그것이 청중에게 미치는 영향에 중점을 두고, 언어의 사용이 어떻게 사회적 태도와 반응을 형성하는지를 분석한다.

두 번째 관점은 고유 특성 기반 관점이다. Butler(1997)와 Matsuda(1993) 등이 혐오표현을 언어의 본질적인 특성에 기반하여 상해를 유발하는 것으로 간주한다. 이 관점은 언어가 어떻게 청중에게 직접적인 심리적 상처를 주는지, 그리고 이것이 어떻게 사회적 분위기에 영향을 미치는지를 중점적으로 다룬다. 예를 들어, 공격적인 언어나 욕설이 혐오표현의 대표적인 예가 될 수 있다. 이 관점은 언어 사용의 방식과 청중에게 미치는 영향, 특히 심리적 피해의 측면에서 혐오표현을 해석한다.

마지막으로, 존엄성 기반 관점이 있다. 대표적인 연구자인 Heyman과 Waldron은 혐오표현을 개인 또는 집단의 존엄성을 해치는 언어로 정의한다. 이 관점은 혐오표현이 사회적 인정과 평등, 인권에 미치는 영향에 중점을 둔다. 혐오표현이 개인의 사회적 지위와 인간으로서의 권리에 어떻게 영향을 미치는지, 그리고 이것이 어떻게 사회적 태도와 법률적 대응에 영향을 주는지를 탐구한다. 이 관점은 혐오표현이 사회적 평등과 존엄성을 어떻게 해치는지를 분석하며, 이를 통해 더 광범위한 사회적, 문화적 맥락에서 혐오표현을 이해하려 한다.

이러한 다양한 관점은 혐오표현의 특성과 영향을 해석하는 데 있어 서로 다른 초점을 가지며, 이는 연구자들이 혐오표현을 어떻게 정의하고 대응하는지에 대한 중요한 통찰을 제공한다.

혐오표현 규제를 바라보는 다양한 관점

혐오표현이 갖는 해악성에 대해 대부분의 연구자와 정책 책임자들은 동의한다. 하지만, 혐오표현을 어떻게 규제하고 어디까지 규제할 것인가로 질문을 바꾸면 그 답변은 쉽지 않다. 그 이유는 혐오표현에 대해 국가나 지역 간에 표현의 자유에 대한 다양한 해석과 표현행위로 발생하는 피해를 정의내리는  개념적 차이 때문이다. 혐오표현에 대한 규제는 학계, 시민 사회, 국제 기구들에 의해 자유로운표현의 권리와 차별로부터의 자유, 인간 존엄성 등 다른 자유와 가치들 사이의 균형을 맞추는 과정으로 제시된다. 표현의 자유와 관련하여, 혐오표현 규제는 어려운 숙제 중의 하나이다.

예를 들어, 유럽과 미국에서 혐오표현을 규제하는 방법은 법률 체계, 표현의 자유에 대한 관점, 유해성에 대한 판단 기준에서 상당한 차이를 보인다. 유럽에서는 혐오표현에 대해 엄격한 법적 제재를 적용한다. 예를 들어, 유럽연합(EU)은 공공 장소에서의 폭력이나 증오를 선동하는 행위를 포함한 특정 형태의 인종주의와 제노포비아에 대한 혐오표현을 형사법으로 금지하고 있다. 이러한 접근은 사회적 다양성과 민주주의를 보호하는 것을 목표로 한다(European Commission). 독일에서 혐오표현과 관련된 주목할 만한 판례는 “아우슈비츠 거짓말” 사건으로 알려진 “BVerfG, 10.10.1995 – 1 BvR 1476/91″이다. 이 사건에서 독일 연방 헌법 재판소는 홀로코스트, 특히 아우슈비츠에서의 유대인 대량학살을 부인하는 것이 표현의 자유를 남용하는 것이며, 독일 법률 하에 형사 처벌될 수 있다고 판결했다. 이 결정은 독일의 엄격한 혐오표현 접근 방식을 반영하며, 표현의 자유와 인간 존엄성 및 공공 평화 보호 사이의 균형을 강조한다.

반면, 미국에서는 수정헌법 제1조에 기반해서 표현의 자유에 대한 강력한 보호를 우선한다. 이로 인해 혐오표현에 대한 정부의 개입이 제한적이다. 미국의 헌법은 표현의 자유를 중시하며, 이로 인해 혐오표현에 대한 법적 규제가 유럽에 비해 덜 엄격하다. 따라서 미국에는 혐오표현 또는 온라인 혐오표현을 규제하는 특별한 연방법률이 없다. 미국 수정헌법 제1조는 표현의 자유를 보장하며, 이는 혐오스럽거나 불쾌한 의견을 표현할 권리를 포함한다. 그러나 혐오표현에 관련된 특정 행동, 예를 들어 혐오행위나 폭력 위협에 대해서는 법으로 금지하고 있다. 미국의 법적 판례 중에는 “Brandenburg v. Ohio”가 유명하다. 이 사건에서 미국 대법원은 KKK 지도자의 폭력을 선동하는 연설을 검토했다. 이 연설은 혐오표현으로 간주되었다. 이 판결에서 대법원은 “즉각적인 불법 행동”을 선동할 가능성이 있는 경우에만 표현이 제한된다는 기준을 설정했다.

유럽연합, 디지털 플랫폼 통한 혐오표현의 법적규제 논란

오늘날 혐오표현의 중심통로는 디지털 플랫폼이다. 그 중에서도 소셜미디어나 동영상 공유플랫폼, 그리고 미디어 서비스의  댓글은 혐오표현이 만들어지고 유통되는 경로로 인식되고 있다. 국제적으로 디지털 플랫폼의 혐오표현 규제는 지역과 국가에 따라 다양하다. 유럽연합과 일부 국가들은 디지털 플랫폼에 강력한 혐오표현 규제를 요구하고 있으며, 이러한 규제는 종종 엄격한 법적 조치와 함께 이루어진다. 반면, 미국은 표현의 자유를 강조하는 접근 방식을 취하고 있으며, 디지털 플랫폼에 대한 혐오표현 규제가 상대적으로 덜 엄격하다. 전 세계적으로 디지털 플랫폼은 자체적인 커뮤니티 기준과 정책을 통해 혐오표현을 관리하고 있으나, 이러한 정책의 실행과 해석은 각국의 법률과 문화적 맥락에 따라 다를 수 있다.

유럽은 디지털 플랫폼에 사회적 책임을 법적으로 부과하면서, 혐오표현의 규제를 강제화하고 있다. 대표적인 법률은 독일의 네트워크집행법 또는 NetzDG이다. 이 법은 유럽연합의 디지털서비스법(DSA)과 영국의 온라인 안전법에 큰 영향을 미쳤다.  2017년에 제정된 NetzDG는 200만 명 이상의 독일 사용자를 가진 소셜 미디어 플랫폼들이 사용자의 불만에 응답하여 혐오표현 및 기타 불법 콘텐츠를 신속하게 삭제하도록 요구한다. 이 법은 전통적으로 국가에 의해 심판되던 검열을 대형 소셜 미디어 플랫폼에 위임하는 사적 규제로 정책을 전환했다는 데서 큰 주목을 끌었다. 이는  공공 이익과 사적 기업 정책 간의 균형에 대한 복잡한 질문을 제기하게 만들어서 플랫폼 규제 연구자들에게 많은 논쟁을 불러 일으켰다.

NetzDG는 법 집행을 사적 기업에 위임하고 처벌규정을 둠으로써, 디지털 플랫폼기업들이 책임을 피하기 위해 콘텐츠를 과도하게 게시물을 차단해서 표현의 자유를 광범위하게 침해할 수 있다는 비판을 받아왔다. 이 법에 대해 비판적 관점을 가진 학자들은 이 법이 벌금을 피하려는 동기에서 법적으로 허용될 수 있는 콘텐츠를 삭제함으로써 부적절한 사적 검열로 이어질 수 있다고 주장한다. 반면, 이 법을 옹호하는 학자들은 사적 플랫폼이 호스팅하는 제3자콘텐츠에 대한 관리 책임을 갖고 공익의 관점에서 정의된 허용가능한 자율규제를 발휘한다고 옹호했다.

뒤이어 디지털서비스법(DSA)은 2022년 7월 유럽연합에서 제정된 법으로, 온라인 플랫폼의 책임을 강화하기 위한 법이다. 이 법은 플랫폼 사업자에게 혐오표현, 불법 콘텐츠, 허위 정보 등 다양한 유해 콘텐츠를 규제할 의무를 부여하고 있다. 디지털 서비스법은 혐오표현을 1) 특정 집단에 대한 증오나 혐오를 표현하는 것, 2) 특정 집단에 대한 차별이나 배제를 조장하는 것, 3) 특정 집단에 대한 폭력이나 공격을 조장하는 것으로 정의한다. 이 법은 플랫폼 사업자에게 1) 유해 콘텐츠에 대한 정책과 절차를 마련하고, 이를 공개할 의무, 2) 유해 콘텐츠를 신고받은 경우, 신속하게 대응할 의무, 3) 유해 콘텐츠를 제거하거나 차단할 수 있는 기술적 조치를 마련할 의무 등을 의무화하고 있다.[1]

유럽연합의 디지털서비스법(DSA)은 온라인 혐오표현에 대한 규제를 포함하고 있지만, 이는 표현의 자유 침해 문제를 야기할 수 있어 법안 제안 단계부터 논쟁이 있어왔다. 이 법은 플랫폼 사업자들에게 혐오표현을 신속하게 삭제하거나 차단할 의무를 부여하고 있지만, 실제로는 수 많은 게시물이 유통되는 디지털 플랫폼에서 사업자가 이를 걸러내고 판단하기에는 모호한 법적 정의를 갖고 있다. 합의된 실행 기준의 부재는 사업자와 이용자의 긴장관계를 형성하게 한다. 또한, 문화적 차이에 따라 혐오표현으로 간주되는 표현의 범위가 다를 수 있다는 점과, 사적 기업에 의한 불명확한 규제로 인해 표현의 자유가 침해될 수 있다는 우려가 제기되었다. 또한 기술적 한계로 인해 혐오표현 탐지가 완벽하지 않으며, 허위 긍정이나 허위 부정의 가능성이 있어, 플랫폼 사업자의 자기검열을 유발할 수 있다는 문제가 제기되었다(Heldt, 2022).

혐오표현에 대한 디지털 플랫폼의 자율심의의 어려움과 방향

유럽연합과 다르게 미국에서는 온라인 혐오표현 처리가 주로 디지털 플랫폼 자체에 의해 이루어진다. 이는 앞서 언급한 것처럼 미국 헌법 제1조에 의해 보장된 표현의 자유가 강하게 보호되기 때문이다. 페이스북, 트위터, 유튜브와 같은 소셜 미디어 플랫폼은 자체 정책과 커뮤니티 기준을 통해 혐오표현을 규제하며, 이러한 기준을 위반하는 콘텐츠를 제거하는 것을 포함한다. 그러나 이러한 조치는 연방 법에 의해 의무화되지 않은 것으로 플랫폼의 재량에 따른 것이다.

대표적으로 메타(Meta, 구 페이스북)는 외부 전문가로 구성된 독립된 심의 기구인 오버사이트 보더(Oversight Board)를 구성해서, 메타가 내린 내용규제의 심의를 맡기고 있다. 이는 KISO 정책위원회의 역할과 매우 비슷하다.

오버사이트 보더의 심의 결정 중 혐오표현과 관련된 내용을 살펴보면, 혐오표현물의 적극적 삭제를 명령한 경우와 혐오표현을 이유로 삭제된 게시물을 복구하라는 명령이 함께 발견된다. 대표적인 복구 사례는 “2023-014-IG-UA Call for women’s protest in Cuba”이다. 이 심의결정은 메타의 오버사이트 보드가 쿠바 뉴스 미디어의 인스타그램 게시물을 혐오표현으로 판단해 삭제한 결정을 뒤집은 것이다. 이 게시물에는 여성이 쿠바 정부에 대해 시위를 촉구하는 비디오가 포함되어 있었다. 이 비디오는 쿠바 남성들을 비하하는 언급이 포함되어 있었지만, 오버사이트 보드는 이 발언이 혐오표현이 아니라 특정 행동에 대한 자격 있는 진술로 간주되어야 한다고 판단했다. 메타의 혐오표현 정책과 일치하지 않는 내용 삭제 결정을 뒤집은 이 사건은 표현의 자유와 정치적 시위에 대한 소셜 미디어의 보호의 중요성을 강조했다.

독일 NetzDG와 유럽연합의 DSA와 같은 플랫폼에 대한 법적 의무부과와 미국의 사업자 자율규제는 거버넌스 측면에서 차이가 있지만, 본질적으로 디지털 플랫폼이 표현물의 속성을 판단하여 삭제 등의 조치를 스스로 취한다는 점에서는 공통점이 있다. 명백한 불법물의 경우는 표현의 자유와 상충됨이 적지만, 혐오표현처럼 그 개념정의와 규율 대상을 설정하기 어려운 경우에는 자유로운 정보유통과 표현의 자유를 침해할 우려가 존재한다.

일반적으로 혐오표현에 대한 규제판단은 몇가지로 구분할 수 있다. 첫째는 피해 기반 접근 방식이다. 이 이론은 혐오 발언이 초래할 수 있는 잠재적인 피해, 즉 폭력 선동, 차별, 심리적 고통 등을 강조하면서 적극적인 보호를 강조한다. 잠재적 위해성을 높게 평가한다. 둘째는 표현의 자유 절대주의 관점이다. 이 이론은 무엇보다도 자유롭고 제한받지 않은 표현의 자유를 우선시하는 미국 헌법과 맞닿아 있다. 심지어 혐오스러운 발언도 즉각적인 폭력을 선동하지 않는 한 보호되어야 한다는 입장이다. 셋째는 이해관계 균형론이다. 입장은 표현의 자유와 개인 보호라는 경쟁 가치 사이의 균형을 맞추기 위해 사안의 맥락과 표현의 잠재적 영향을 고려하는 세심한 규제 접근 방식을 주장한다. 넷째는 표준 규약 기반의 접근이다. 명시적인 규약체계를 세분화해서 개발하는 것이다. 그러나 규약이 갖는 추상성으로 인해 결과적으로 추가적인 정보의 수집 등이 필요하다. 

KISO의 정책결정은 메타의 오버사이트 보더와 같이 혐오표현에 대한 전문가 기반의 집단적 판단을 하면서, 맥락 기반 및 이해관계 균형론을 함께 취하고 있다. 시점상으로 KISO의 심의 체계가 메타의 오버사이트 보더보다 더 앞섰다는 점에서 KISO가 매우 선진적인 자율규제 모델을 개척했음을 알 수 있다.

한국은 유럽과 미국과 비교해서 혐오표현 관련 법제에 큰 차이가 있다. 특히, 유럽처럼 혐오표현을 불법물로 판단할 법적 근거가 명확하지 않다. 정보통신망법상의 불법 정보에 혐오표현은 포함되지 않는다. 차별금지법은 국회를 통화하지 못했고, 형법에도 이와 관련한 조항이 없다. 반면, 정부가 디지털플랫폼 사업자에게 요구하는 규제압력은 매우 높다. 따라서 혐오표현에 대한 규제는 그 실행에 앞서 지속적인 토의와 수정을 통한 규범 합의의 과정이 중요하다.

디지털 플랫폼에 대한 규제법이 점점 강화되는 것은 이 같은 숙의적 판단을 저해하고 자동화된 기술을 통해 광범위한 게시물 삭제를 부를 수 있다는 점에서 지양되어야 한다. 혐오표현은 그 자체로 명시적으로 판단할 수 있는 내용에서부터 숙의적 판단이 필요한 내용까지 스펙트럼이 다양하다. 또한 젠더갈등, 인종갈등, 국가간 갈등 등 다양한 정치사회적 맥락에 의해 발생하는 권력관계와 힘의 긴장관계가 반영되기 때문이다.

따라서 혐오표현 규제 거버넌스를 마련하기 위해서는, 혐오표현에 대한 법리적 관점을 재정립하고, 자율규제 관점에서는 표현물의 분류와 영향성에 대한 고민이 보다 병행될 필요가 있다.

참고문헌

Alkiviadou, N. (2019). Hate speech on social media networks: towards a regulatory framework?. Information & Communications Technology Law, 28(1), 19-35.

Butler, J. (1997). Excitable speech: A politics of the performative. Routledge.

Castaño-Pulgarín, S. A., Suárez-Betancur, N., Tilano-Vega, L. M., & Herrera-López, H. M. (2021). Internet, social media and online hate speech. Systematic review. Aggression and Violent Behavior, 58, 101608. doi:10.1016/j.avb.2021.101608

Council of Europe’s Committee of Ministers Recommendation 97 (20).

Heldt, A. P. (2022). EU digital services act: The white hope of intermediary regulation. In Digital Platform Regulation: Global Perspectives on Internet Governance (pp. 69-84). Cham:

Heyman, S. J. (2008). Free speech and human dignity. Yale University Press.

Matsuda, M. J., Lawrence III, C. R., Delgado, R., & Crenshaw, K. W. (Eds.). (1993). Words that wound: Critical race theory, assaultive speech, and the First Amendment. Westview Press.

Parekh, B. (2012). Is there a case for banning hate speech? In Hare, I., & Weinstein, J. (Eds.), Extreme speech and democracy. Oxford University Press.

Post, R. (2009). Hate speech. In Hare, I., & Weinstein, J. (Eds.), Extreme speech and democracy. Oxford University Press.

Tsesis, A. (2002). Destructive Messages: How Hate Speech Paves the Way for Harmful Social Movements. NYU Press.

Waldron, J. (2014). The harm in hate speech. Harvard University Press.

판례

Brandenburg v. Ohio, 395 U.S. 444 (1969).

Handyside v. United Kingdom, 5493/72 (1976), 유럽 인권 재판소.


[1] DSA 제29조(유해 콘텐츠의 삭제 또는 차단)

  1. 플랫폼 사업자는 다음 각 호의 어느 하나에 해당하는 콘텐츠가 자신의 플랫폼에 게시된 사실을 알게 된 경우 지체 없이 이를 삭제하거나 차단하여야 한다.

가. 불법 콘텐츠

나. 혐오표현

다. 아동 성적 학대물

라. 테러리즘 선동물

마. 허위정보

제30조(유해 콘텐츠에 대한 정책 및 절차)

  1. 플랫폼 사업자는 유해 콘텐츠에 대한 정책 및 절차를 마련하여야 한다.
  2. 플랫폼 사업자는 제1항의 정책 및 절차를 공개하여야 한다.

제31조(유해 콘텐츠 신고)

  1. 플랫폼 사업자는 유해 콘텐츠에 대한 신고를 접수할 수 있는 시스템을 마련하여야 한다.
  2. 플랫폼 사업자는 제1항의 시스템을 통해 접수된 신고에 대하여 신속하게 대응하여야 한다.

제32조(유해 콘텐츠에 대한 기술적 조치)

  1. 플랫폼 사업자는 유해 콘텐츠를 자동으로 탐지하고 삭제하거나 차단할 수 있는 기술적 조치를 마련하여야 한다.
  2. 플랫폼 사업자는 제1항의 기술적 조치를 통해 삭제하거나 차단된 콘텐츠에 대하여 이용자가 이의를 제기할 수 있는 시스템을 마련하여야 한다.
저자 : 황용석

건국대학교 미디어커뮤니케이션학과 교수 / KISO 정책위원 / (전)언론중재위원