온라인 혐오발언과 사회적 차별

1. 혐오의 발견과 확산

근대 이후 사회는 모든 인간의 존엄성과 각 개인의 동등한 가치를 인정하고 이를 국가가 보장할 것을 요청하는 이념적 전환을 거쳐 왔다. 이러한 이념이 실현되기 위해서 법을 포함한 다양한 규범과 실천이 요청되어지지만 여전히 만족스럽지는 못한 것이 현실이다. 특히 지속적인 차별의 대상이 되는 특정 집단에 대한 공격은 범세계적으로 존재하고 있다.

어떤 집단에 대해 사회적 편견은 그 집단에 속한 개인들이 동등한 가치를 지닌 인간이라는 사실을 망각하게 만든다. 이러한 집단에 대한 편견이란 부정적인 모습으로 집단 구성원의 특징을 전형화(stereotype) 시킨다. 이러한 부정적인 전형화의 편견은 사회 속에서 성장하는 개개인의 일상생활에 익숙하게 접하는 이미지로 습득되고 동시대의 정치적·경제적·사회적·문화적 영역으로 공유되면서 주류문화로 자리잡고 다시 후세대에 전승된다. 또한 그러한 편견이 무의식적으로 반영된 결정은 다수의 결정으로 법과 정책에 반영되어서 제도적으로 정착되며, 사회의 지배적인 관념으로 공고화된다. 이렇게 발달되는 편견은 해당 특정집단에 대한 사회적·제도적 차별로 이어지지만, 사회적 통념이나 평균적인 일반인의 인식이라는 이름으로 합리적 차별로 여겨지거나 차별이라는 명명도 받지 못하게 된다.

여기서 차별받는 집단이 동등한 인간으로써 존엄성을 보장받아야 할 존재라는 목소리를 높이기 시작하거나, 국가·사회적 위기 상황 등 사회적·환경적 조건이 변화함에 따라 그 문제 원인을 상대적인 약자인 이들 집단에게 돌림으로써 발생하는 차별의 현장이 사회적으로 알려지게 되면서 비로소 차별은 적극적으로 가시화되기 시작한다. 그러나 사회 전체에 뿌리박힌 해당 집단에 대한 편견으로 인한 반작용으로 인한 적대감도 함께 성장한다. 이러한 특정 집단에 대한 적대감이 구체적인 행위로 나타날 때 해당 특정집단의 구성원에게는 치명적인 해악을 불러일으킨다. 세대를 거쳐 전 사회영역에 일반적이고 일상적으로 침투한 편견으로 인해 적대감은 마치 사회적으로 정당화된다고 여겨지며, 지속적이고 반복적으로 이루어지고, 나아가 확산되기도 쉽다. 이와 같이 특정 집단에 대한 적대감은 역사적, 집단적으로 차별을 받아온 집단을 표적으로 하여 적대적 발언, 괴롭힘, 배제와 분리, 폭력으로 나타난다. 혐오표현 혹은 혐오발언은 바로 이와 같은 배경과 개념을 전제한 표현행위를 의미한다.

한편, 혐오발언의 확산은 인터넷의 발달로 또 다른 국면을 맞이하게 된다. 과거 혐오발언은 표적집단을 배제, 추방, 분리, 교정할 것을 요구하는 집회, 연설, 팜플렛 배부와 같은 형태로 이루어졌다면 이제는 인터넷을 통해서 강한 전파성을 가지고 국경을 넘어서 이루어지고 있다. 따라서 혐오발언에 대한 기존의 규제가 인터넷 규제로 연결될 수 있을지, 그것이 과연 혐오발언 억제에 효과적인지가 문제이다.

2. 유럽 각국의 인터넷 혐오표현의 규제 동향

혐오발언에 대한 국제사회 및 국내법상 규제는 유럽에서 적극적으로 이루어지고 있다. 국제사회는 1948년 제노사이드협약과 1965년 인종차별철폐협약을 채택하면서 인종 등에 대한 차별과 폭력 선동을 금지하였으며, 1966년 자유권 규약 역시 인종, 민족, 종교적 적개심을 고취하는 차별, 적의, 폭력의 선동을 금지하고 있다. 이러한 국제사회와 국내적 차별 선동의 확산에 대응하기 위해 유럽 각국은 형사규제를 중심으로 혐오표현을 규제하고 있다.

예를 들어 영국 「공공질서법(1986)」은 ‘위협적, 매도적 혹은 모욕적’인 ‘말이나 행동을 사용’하거나, ‘위협적, 매도적 혹은 모욕적인 글을 공개’하는 경우로써, ‘인종적 적대감을 고무하기 위한 의도를 가지거나’ 혹은 ‘모든 상황상 인종적 적대감이 유발될 것 같은 경우’를 처벌하고 있다. 또한 종교와 성적 지향을 이유로 한 ‘위협적’인 말 또는 행동을 사용하거나 그러한 글을 공개하는 경우로서 ‘적대감 고무를 위한 의도’를 가지는 경우도 처벌 대상에 포함된다. 프랑스 「언론과 자유에 관한 법」은 ‘민족, 국가, 인종 또는 종교’, ‘성, 성적지향 또는 정체성, 장애’를 이유로 ‘개인 또는 집단’에 대해 명예를 훼손하는 행위 및 모욕하는 행위. ‘민족, 국가, 인종 또는 종교에 속하는지 유무를 이유’로 ‘개인 또는 집단’에 대해 ‘차별, 적대감, 폭력을 선동’하거나, ‘성, 성적지향 또는 정체성, 장애를 이유’로 ‘적대감과 폭력을 선동’하는 행위를 처벌하고 있다. 또한 독일 형법은 ‘공공의 평화를 어지럽히는 적정한 방법으로’, ‘일부 주민’에 대하여 ‘증오를 선동하거나 혹은 그들에 대한 폭력적 또는 자의적 조치를 촉구’하거나, ‘중상함으로써 타인의 인간의 존엄을 공격’하는 행위를 처벌하고, ‘국적·인종적·종교적 그룹, 또는 출신민족에 의해 규정된 집단’에 대하여 ‘증오를 선동하고 그들에 대한 폭력적 또는 자의적 조치를 촉구’하거나 그 집단을 ‘모욕하고 악의를 가지고 경멸하거나 혹은 중상하는 것에 의해 타인의 인간의 존엄을 공격하는’ ‘문서’ 등의 배포를 처벌하고 있다.

이와 같은 형사규제는 인터넷에서도 동일하게 적용되며, 기타 인터넷 내용규제에 대한 법률 역시 일부 혐오표현에 적용될 수 있는 규정들을 두고 있다.

영국의「커뮤니케이션법」은 ‘공중의 전자적 통신 네트워크’를 사용하여 ‘극히 공격적이거나 외설적, 음란한, 위협적 특성’을 가진 메시지의 전송을 처벌대상으로 하고 있는데, 인종, 종교, 장애, 동성애혐오적, 성적지향 및 트랜스젠더혐오적 범죄를 포함한 증오범죄, 해킹정보, 사이버불링과 사이버스토킹 등의 처벌에 사용될 수 있다고 해석된다.1 프랑스는 「언론의 자유에 관한 법」상 혐오표현을 규제하는 조항을 적용하는 수단으로 ‘전자적 수단에 의한 모든 커뮤니케이션’을 포함시키고 있어서, 온라인에도 적용된다고 보고 있으며,「커뮤니케이션 자유에 관한 법률」및 「디지털 경제의 상호신뢰에 관한 법률」에서 혐오표현에 대한 대응을 요청하고 있다. 즉, 통신사업자와 인터넷서비스제공자는 「언론의 자유에 관한 법」 상 규정된 혐오표현 확산 저지를 위해 노력할 것을 규정하고 있으며 이와 같은 정보를 인지하는데 유용한 접근성과 투명성이 확보된 시스템의 구축, 해당 불법행위가 신고되거나 인지된 경우에는 권한있는 공공기관에 지체없이 고지할 의무와 이러한 불법적 행위를 저지하기 위하여 구축한 시스템을 공표할 의무가 있다. 또한 독일은 전술한 형법 규정상 ‘문서’에 ‘글, 라디오, 미디어, 통신’을 포함한다고 명시하고 있으며, 청소년유해정보를 규제하는 「청소년보호법」은 위 형법상 규정된 표현을 청소년유해정보로써 유포를 금지하고 있다.

3. 법적 규제의 한계와 국가와 시민사회의 대응 과제

유럽 국가들을 중심으로 혐오표현이 가져오는 표적집단 구성원에 대한 존엄성과 기본권 침해 및 선동으로 인한 사회적 해악이 인정되고 이에 대한 법적 규제가 비교적 일반화되어 있는데, 이는 정도와 현상의 차이는 있을 수 있어도 우리나라도 예외는 아니다. 2016년 국내 실태조사에 따르면 성적 소수자의 94.6%, 기타 여성 83.7%, 장애인 79.5%, 이주민 42.1%(이주민의 경우 온라인 이용시간 및 이용 사이트 범위, 한국어 혐오표현에 대한 이해도 등으로 인해 낮게 나온 것으로 추정)이 온라인 혐오표현 피해를 경험하고 있다.2 또한, 혐오표현의 개념범위에 대해 후술하는 문제를 별론으로 하고 보면, 방송통신심의위원회가 혐오표현으로 파악하고 있는 「정보통신에 관한 심의 규정」 제8조 3호 바목 차별·비하 표현에 대한 시정요구는 2013년 622건, 2014년 723건, 2015년 891건, 2016년 6월까지 1,359건으로 매년 증가 추세에 있으며 특히 2016년은 상반기에는 이미 예년의 건수를 1.5배 가량 초과하고 있다.3

그렇다면 우리가 우선 질문할 것은 우리나라에서 혐오표현이 현행법상 규제될 수 있는가, 그리고 그렇지 않다면 법 제·개정을 통해 법적 규제를 도입하는 것이 필요한가이다.

첫째, 현행법상 일부의 혐오표현은 처벌의 대상이 되고 일부는 그렇지 아니하다. 혐오표현은 표적집단 구성원에 대한 직접적인 적대적 발언 혹은 제3자나 대중에게 표적집단 구성원의 차별과 폭력을 선동하는 발언을 통해 이루어진다. 이러한 표현은 표적집단 전체가 아니라 개인을 특정할 수 있게 이루어지는 동시에 명예훼손 혹은 모욕적 표현으로 판단될 수 있는 경우에는 형법상 명예훼손죄 및 모욕죄가 적용된다. 그러나 혐오표현이 표적집단 전체를 지칭하는 경우 현행 판례 해석상 명예훼손죄나 모욕죄가 적용되기 힘들다. 또한 위 범죄의 보호법익이 사회적 평가라고 보는 통설적 해석상 표적집단에 대한 낙인찍기의 결과로서 ‘인격적 평가’의 저하가 이루어지는 발언이 ‘사회적 평가’에 대한 저하로 포섭되면서 혐오표현의 본질적인 성격을 포착하지 못하는 위험도 있다.

한편, 온라인에서 이루어진 경우에는 이에 더해서 「청소년보호법」, 「정보통신망법」상 명예훼손죄와 유통이 금지되는 불법정보에 해당하는 경우 정보통신서비스 제공자에 의해 삭제·차단 조치가 이루어질 수 있다. 특히 정보통신망법상 불법정보 및 유해정보의 심의기준을 구체화한 방송통신심의위원회의 「정보통신에 관한 심의 규정」에서 제8조 3호 바목 ‘합리적인 이유없이 성별, 종교, 장애, 연령, 사회적 신분, 인종, 지역, 직업 등에 대해 차별·비하·증오하는 내용’(차별·비하 표현)은 혐오표현에 적용된다고 보고 있으나,4 예를 들어 규제사례에 여성비하표현과 남성비하표현이 동일하게 포함되어 있다는 점에서도 알 수 있듯이 표적집단에 대한 적대적 표현이라기보다는 특정 속성을 이유로 한 모든 적대적 표현에 대해 적용된다는 점에서 한계가 있다.5

그리고 「장애인차별금지 및 권리구제 등에 관한 법률」 제32조는 ‘장애를 이유’로 ‘모욕감을 주거나 비하를 유발하는 언어적 표현’을 차별행위로 권고의 대상으로 규정하고 행정지도와 시정명령을 통해 규제가 이루어지고 있으나 현실에서 적용되는 사례는 적다.6

둘째, 그렇다면 지금과 같이 혐오표현에 대해 법적 규제가 명확하게 이루어지지 못한 상황을 개선하기 위해 혐오표현에 대한 법적 규제, 특히 형사 규제가 필요할 것인가. 특히 인터넷 댓글을 넘어서 1인 방송과 같은 다양한 형태의 온라인 콘텐츠로 확산되고 있는 온라인 혐오표현은 온라인이 가지는 전파성·확산성·익명성으로 인하여 그 해악성이 증대된다는 측면이 있는 동시에 인터넷 규제로 인한 위축효과, 자정작용의 가능성, 인터넷 특성에 따른 현실적 규제 어려움 및 인터넷상 표현 보호라는 점에서 규제가 완화되어야 한다는 측면이 함께 존재한다는 점에서 특히 법적 규제에 어려움이 존재한다.

혐오표현에 대한 법적 규제는 그 기본권 침해의 누적적·치명적 해악성과 사회적 차별 선동 억제의 공익으로부터 헌법상 정당화될 수 있다.7 그러나 이에 대한 근본적인 해결은 표적집단에 대한 사회구조적 차별이 철폐되는 것이므로, 혐오표현이 양산되는 토양인 차별이 철폐되어야 한다는 궁극적인 목적을 위한 필요충분조건은 아니다. 또한 혐오표현이 억제되어야 할 당위성을 인정할지라도 이를 위해 법적 규제의 수단을 사용하는 것은 오히려 혐오표현의 발화자를 더 자극하거나 문제를 수면 밑으로 잠복시키는 결과를 낳는다는 등의 주장과 우려가 제기되는 것도 이러한 이유이다.

따라서 혐오표현의 법적 규제에 대한 논의에 앞서서 필요불가결한 대응책은 혐오표현을 발생시키는 표적집단에 대한 일상화된 편견을 다양한 영역에서 개선해나가고, 동시에 혐오표현에 의한 차별 선동과 확산을 효과적으로 대응할 수 있도록 표적집단 구성원의 역량과 시민사회의 대항언론을 장려하는 사회적 분위기와 국가의 정책적 의지를 분명히 하는 것이다. 또한 이는 인터넷이 가진 특성을 활용하는 것을 통해 유효하게 전개할 수 있으며, 자율규제 기구와 인터넷서비스제공자들의 협력도 중요하다. 예를 들어 언론중재위원회는 시정권고심의기준의 차별금지조항8을, 한국인터넷자율정책기구는 정책규정에 혐오표현 대응조치 규정9을 마련하고 있는데, 이러한 조항이 실제 인터넷환경에 적극적으로 도입될 수 있도록 장려할 필요가 있다. 이 때 중요한 것은 혐오표현의 개념이 단순히 적대적 표현이나 비방·모욕 표현을 의미하는 것이 아니라 사회적 소수자를 향한 표현이라는 점을 명확하게 주지시킬 필요가 있다.

 

  1. Dominic McGoldrick(2013). Limits of Freedom of Expression on Facebook and Social Networking Sites, A UK Perspective. Human Rights Law Review, 13(1). [본문으로]
  2. 홍성수 외(2016), 『혐오표현 실태조사 및 규제방안 연구』, 국가인권위원회 실태조사 연구용역보고서, 96-100. 온라인 혐오표현을 경험한 곳으로는 온라인 뉴스 기사나 영상의 댓글에서 78.5%, 온라인 카페나 커뮤니티 사이트 댓글 73.7%, 페이스북 댓글 73.3% 순으로 나타났다. [본문으로]
  3. 조소영 외(2016), 『인터넷에서의 혐오표현(hate speech) 규제개선방안 연구』, 방송통신심의위원회 연구용역, 90-92. [본문으로]
  4. 방송통신심의위원회(2016). 『2015 방송통신심의 연감』, 126. [본문으로]
  5. 규제 사례에 대해서는 조소영 외(2016), 위 보고서“, 101. [본문으로]
  6. 박건, 모욕과 무시경험의 차별유형화에 대한 연구-입법화가능성을 중심으로-, 『민주주의와 인권』, 제14권 3호, 2014, 107. [본문으로]
  7. 이승현(2016), 혐오표현 규제에 대한 헌법적 이해, 『공법연구』, 제44집 제4호 참조. [본문으로]
  8. 제10조의2 언론은 개개인의 인종, 종교, 성별, 육체적ㆍ정신적 질병이나 장애를 이유로 편견적 또는 경멸적 표현을 삼가야 한다. [본문으로]
  9. 제21조 회원사는 지역ㆍ장애ㆍ인종ㆍ출신국가ㆍ성별ㆍ나이ㆍ직업 등으로 구별되는 특정집단을 대상으로 모욕적이거나 혐오적인 표현방식을 사용하여 해당 집단이나 그 구성원들에게 굴욕감이나 불이익을 현저하게 초래하는 게시물이 유통되고 있음을 신고 등을 통해 알게 된 경우 이를 해당 집단이나 그 구성원들에 대한 차별적 표현으로 보아 삭제 등 필요한 조치를 취할 수 있다. [본문으로]
저자 : 이승현

연세대학교 법학연구원 전문연구원