디지털 성범죄 게시물은 근절되고 있나? -사전조치 의무의 현황과 한계 –
디지털 성범죄는 디지털 장비·정보통신망 등을 이용해 온라인상에서 제작·유포되는 형식의 범죄를 말한다. 무엇보다 디지털 성범죄는 시공간의 제약이 없다. 피해자는 24시간 내내 고통에 시달릴 수밖에 없다. 또 전파속도가 워낙 빨라 음란물 등이 한번 유포되기 시작하면 걷잡을 수 없다. 어디까지 유포됐는지 파악조차 어렵고, 온라인상에 영원히 남을 가능성도 적지 않다.
2020년을 기점으로 디지털 성범죄와 관련된 많은 법안이 통과됐으나, 이후에도 ‘아동청소년을 협박하여 성 착취물을 제작한 L사건’, ‘대구 비대면 소액 대출과 연계한 성 착취물 사건’ 등 디지털 성범죄는 끊이지 않고 있다. 사업자들로 하여금 불법 촬영물 유통·확산 방지를 위해 기술적·관리적 조치를 따르도록 했으나 현재 상황을 비교하며 사전 조치 의무의 한계와 실효적 개선 방향을 살펴보고자 한다.
1. 경과: 사건의 개요와 법률 제·개정
2020년 3월, 대학생 취재단 ‘추적단 불꽃’의 폭로로 텔레그램 ‘N번방 사건’이 세상에 드러났다. 텔레그램 ‘N번방’ 사건은 2019년 2월 외국계 SNS인 텔레그램에 개설된 단체 채팅방에서 음란물을 생성, 거래, 유포한 디지털 성범죄 사건이다. ‘N번방’을 통해 제작·유포된 음란물은 미성년자를 포함한 여성의 성 착취물로, 미동의 영상물 수천 개가 암호화폐로 거래됐다. 이후 2020년 3월 서울경찰청은 텔레그램 ‘N번방’ 운영자를 검거·구속했으며 2021년 10월 ‘N번방 사건’의 주동자 조주빈에게 징역 42년형이 선고됐다.
‘N번방 사건’은 20대 국회 회기 종료를 앞두고 그동안 미뤄졌던 성폭력 관련 처벌법들을 다수 통과시켰으며, 아동·청소년 성 보호에 관한 법률과 성폭력 범죄의 처별 등에 관한 특례법이 제·개정 되었다.
가장 먼저 성폭력범죄의 처벌 등에 관한 특례법을 통해, 불법 촬영물을 소지하거나 단순히 보는 것만으로도 처벌이 가능하도록 했으며(제14조 4항), 사람의 얼굴이나 신체ㆍ음성 등을 성적 욕망이나 수치심을 유발할 수 있는 형태로 합성ㆍ가공하는 ‘딥페이크(deepfake)’를 처벌할 규정도 생겼다(제14조의 2). 또한 피해자가 직접 자신의 신체를 촬영했다고 하더라도 피해자의 의사와 관계없이 유포하면 유포자를 처벌 할 수 있도록 하여(제14조) 디지털 성범죄자를 엄벌할 수 있는 법적 근거를 마련하였다.
또한 인터넷의 특성상 디지털 성범죄물이 한번 유포되면 피해자에게 돌이킬 수 없는 고통을 남기기 때문에 빠른 차단으로 피해를 최소화할 수 있도록 사업자의 책임을 강화해야 한다는 취지로 전기통신사업법, 정보통신망법, 성폭력처벌법, 청소년성보호법 등 이른바 ‘N번방 방지법’을 마련, 여·야 합의로 통과(‘20.4~5월)됐다.
2. ‘디지털’ 성범죄와 인터넷 사업자의 의무
‘N번방 사건’으로 인한 법률의 제·개정 과정에서 주목할 부분은 전기통신사업법과 정보통신망법의 개정에 관한 부분이다. ‘N번방 사건’ 이전에도 웹하드, 다크웹 등 새로운 정보통신기술을 활용한 음란물 제작·유포로 인해 디지털 성범죄에 대한 논의는 지속됐지만, ‘N번방 사건’으로 인해 디지털 성범죄에 대한 인터넷 사업자들의 의무가 규정화된 것이다.
우선, 전기통신사업법은 2020년 5월 개정을 통해 플랫폼을 운영하는 사업자들이 불법 촬영물이 유통되지 않도록 신고와 삭제에 협조해야 하고, 사전에 이러한 유통을 방지하기 위한 기술적·관리적 조치를 취하도록 했다(전기통신사업법 제22조의 5,6). 적용 대상자들은 웹하드 사업자와 전년도 매출액 10억 원 이상이거나, 전년도 말 기준 직전 3개월간의 하루 평균 이용자 수가 10만 명 이상이 되는 규모이면서 SNS 제공 부가통신사업자가 그 대상이며, 일반에게 공개되는 ①불특정 ②다수가 ③접근 가능한 대화방의 경우를 포함한다(전기통신사업법 시행령 제30조의 6). 정보통신망법의 경우, ‘딥페이크 방지법’이라고도 하며, 딥페이크 정보를 식별할 수 있는 기술을 개발하고 보급할 수 있도록 하며(제4조), 불법 촬영물 유통으로 인한 피해자의 2차 피해를 방지(제44조의 9, 제76조 2항 등), 불법행위에 대한 국내법 적용 근거를 마련했다(제5조의2).
하지만, 실제 디지털 성범죄 사건은 위 조건보다 규모도 작고, 국내 부가통신사업자로 등록하지도 않은 해외 사업자가 제공하는 텔레그램에서 발생했음에도 불구하고 조치 의무 대상에서 빠져, 실질적 규율 대상으로 포섭하기 어렵다는 한계를 보인다. 또한 우리나라는 이미 플랫폼에 불법정보 유통방지 의무가 도입돼 있었음에도 현행법에서는 일정 규모 이상 사업자들로 하여금 서비스 이용자의 콘텐츠에 대해 정부 제공 필터링 기술을 적용하여 사전 조치토록 의무를 부여하고 있다.
3. 사전조치의무규정: 디지털 성범죄의 근절? 혹은 사적 검열?
‘N번방 사건’ 이후 개정된 전기통신사업법과 정보통신망을 통해 대형 인터넷 사업자들은 디지털 성범죄물이 유통되지 않도록 적극적인 차단과 이를 사전에 방지할 수 있는 기술적 의무를 다해야 한다. 문제는, 디지털 성범죄를 근절하기 위해 도입한 조항이 일부 대형 사업자들에게만 적용됨과 동시에 모든 국민들의 권리에 반할 수 있다는 점이다.
불법 촬영물 유통을 방지하고 이를 사전에 방지하기 위해서는 ‘모니터링’과 ‘필터링’ 등의 기술 도입이 요구된다. 물론, 개정안 발의 당시, 이와 관련해 사전검열 우려, 사법적 판단 권한을 갖지 못한 방심위의 심의·의결한 내용을 기반으로 표현물을 차단토록 하는 것은 표현의 자유에 대한 침해 우려가 있을 수 있다는 지적은 계속됐다. 그런데도 법안은 통과가 됐고, 사전 검열에 준할 정도의 문제가 있음에도 이를 감내하고 법을 잘 지키고 있는 것이 현실이다. 또한, 이러한 조치에도 불구하고 여전히 다양한 경로를 통해 디지털 성범죄는 계속되고 있다.
모니터링 및 필터링과 관련해, 최근 불법 촬영물 DB 적용을 테스트하기 위해 방통위는 위법한 정도의 가짜 정보가 포함된 DB를 생성해 사업자들에게 배포하는 등 문제의 소지가 다분한 방식으로 현행 조치의 한계를 극복하고자 노력하나, 이 역시 위법 소지가 크다는 점에서 문제는 남아 있다.
4. 디지털 성범죄물 유통 방지를 위한 현행 사전조치 의무규정의 한계
정부에서 사업자로 하여금 이용자 콘텐츠에 대해 사전에 기존 디지털 성범죄물 DB와 매칭해 필터링하게 하는 규제는 디지털 성범죄 예방을 위한 좋은 시도이지만, 이를 강제 시행으로 실질적 효과를 보기 어렵다는 한계가 있다.
① 적용 대상의 한계
1) 대규모 사업자에 한정된 대상
가장 먼저, 사업자의 규모를 한정하고 있다는 문제가 있다. 현행법상 우리나라는 ‘연 매출 10억 원 이상 또는 일평균 이용자 10만 명 이상’의 인터넷 사업자에게 불법 촬영물 삭제 및 필터링 조치를 의무화했다. 하지만 ‘N번방 사건’ 이후에도 법에서 규정한 규모 이하의 다양한 채널(SNS, 데이팅 앱 등)에서 사건이 일어나고 있는 것도 사실이다. 법이 의도하지 않은, 마치 풍선 효과와 같이 불법 콘텐츠의 유통을 지하로 몰아내거나 다른 규제 대상이 아닌 플랫폼으로 이전됐다고도 볼 수 있다.
2) 해외 사업자에 대한 국내법 적용의 한계
실제로 디지털 성범죄를 수사하면서 일선에서는 해외 서버를 둔 경우 경찰이 적극 수사할 권한이 없고, 해당 국가의 기업에 수사 공조를 요청할 수밖에 없는 한계를 토로하고 있는데, 2만 6천 건 중 58%만 회신하는 상황이기에, 적극적인 국제 공조 강화, 해외의 협조가 요구되는 상황이다.
텔레그램 대상 수사에서도 난항을 겪었고, 현행법상 사업자 사전 의무 조치를 따르지 않는 등의 행태를 보면, 법률안 논의 시에도 지적됐던 역차별 문제가 실제 현실에서 나타나고 있음을 확인할 수 있다. 사전 의무 조치 이전에도 모니터링 기능을 수행해오던 국내 사업자들이 실효적 법 집행이 어려운 해외 사업자들에 비해 다양한 추가 부담이 늘어난 것은 아닌지 생각해볼 필요가 있다.
② 적용방식의 기술적 한계
현재 적용되고 있는 이용자 콘텐츠에 대한 사전 필터링 방식은 다음과 같은 근본적 문제점들을 지니고 있다.
1) 오진, 미진, 과진 등의 필터링 기술 오류 문제
콘텐츠 필터링 기술은 특정 키워드나 패턴 등을 감지해 차단하는 방식이다. 그러나 이 방법은 키워드나 패턴 등을 중심으로 분석하기 때문에, 때로는 정당한(문제없는) 콘텐츠가 필터링 돼 차단될 가능성이 있다. 현재 정부DB 매칭 방식은 매칭 시 즉시 삭제되기에 오진 여부조차 파악하기가 어려운 상황이다.
기본적으로 필터링 시스템은 완벽하지 않으며, 필터링이 과할 경우 오탐지와 그에 따른 부작용, 거짓 양성 등으로 이어질 수 있다. 또한, 필터링 시스템이 정확하지 않을 경우, 이용자들의 정상적인 콘텐츠까지 차단될 수 있고, 이에 따라 이용자의 불만이 발생하게 되고, 결국 사업자의 신뢰도 하락으로 이어질 우려가 있다.
2) 새로운 디지털 성범죄물 DB 대응의 문제
필터링 시스템은 기존에 발견된 성범죄물 DB와 매칭되기 때문에, 새로운 성범죄물이 등장하는 경우 신속하고 적극적으로 대응하기 어렵다는 한계를 지닌다. DB에 등록된 성범죄물 이외의 다른 유형의, 예를 들어, 새로운 성범죄물을 만들어내는 디지털 성범죄자들은 매번 새로운 방법을 시도할 가능성이 있기에 사전 필터링이 효과적이지 않을 수 있다는 한계가 있다.
3) 이용자 콘텐츠 변경 등 기술적 돌파점의 문제
불법 영상물 DB와의 해시값 매칭 방법은 기술적으로 비교적 쉽게 우회할 수 있다는 점은 널리 알려져 있다. 예를 들어, 불법 영상물의 해상도를 변경하거나 압축하면 일부 단순 매칭 기술은 이를 인식하지 못할 수 있다. 또한, 이 방법은 이미 등록된 불법 영상물에 대한 대응만 가능하며, 딥페이크나 A.I. 기술을 사용한 것을 포함한 새로운 불법 영상물이 등장할 때마다 새로운 DB를 구축해야 하고 조치 의무 대상 사업자들에게 배포 및 적용토록 해야 하므로 대응이 느리고 비효율적이다.
5. 인터넷 사업자 측면에서 본 사전조치 의무규정의 한계
디지털 성범죄 예방이라는 취지에 공감해 현 의무 조치를 따르고 있는 사업자 측면에서 볼 때, 좋은 취지임에도 불구하고 특히 어려운 점들이 몇 가지 있는데, 다음과 같다.
① 정상적 콘텐츠에 대한 오검출
전술한 기술적 문제로 이용자들의 콘텐츠에 대해 이용자들의 정상적인 콘텐츠까지 불법 촬영물로 오검출돼 차단될 수 있다. 게재 제한 지점과 일치하는 방심위 불법 촬영물 DB를 통해 역추적하면 일부 영상은 DB 상의 문제로 오검출되는 것으로 추정되고 있으나 현 시스템상 검증조차 불가능하다. 이로 인해 이용자의 불만이 발생 가능성과 서비스의 신뢰도 하락, 이미지 훼손으로 이어질 수 있다. 더 나아가 오검출 피해에 대한 배상 책임의 문제에 직면한 것이 현실이다.
② 사적 검열에 대한 법적 책임 우려
이용자들의 표현물인 생성 콘텐츠에 대해 게시되기 전 사업자가 들여다봐야 한다는 점에서 사적 검열이라는 법적 책임 우려가 있다. 불법 촬영물 등이 「성폭력범죄의 처벌 등에 관한 특례법」등을 위반해 이뤄진 것인지 여부에 대해 사법적인 판단 권한을 가지지 못한 방심위에서 불법 촬영물 등으로 심의·의결한 정보를 모니터링하여 삭제·차단하도록 하는 것은 표현물에 대한 사인에 의한 사전 검열이라는 차원에서 문제의 소지가 있다. 방심위에서 필터링 기술 적용 시, 정부 DB의 해시값과 매칭 시 즉시 삭제하기에 이용자 콘텐츠를 오탐지에 따른 삭제인지 확인조차 불가능한 것이 현실이다.
③ 시스템 부하로 인한 서비스 품질 저하
사전 식별 규정으로 인한 사전 필터링 적용이, 일부 사업자들에게 상당량의 트래픽 전송으로 인한 시스템 부하 상황이 발생하는 문제도 있다. 매칭된 성범죄물을 차단하는 과정에서 처리 속도가 느려질 경우, 이용자가 콘텐츠를 업로드하거나 이용하는 과정에서 불편을 겪을 수 있다. 이는 이용자 경험에 영향을 미치며, 서비스 운영에도 문제를 야기할 가능성이 존재한다. 실제 시범 운영 시 몇 초의 지연이 발생하기도 했기에 더욱 그러하다.
④ 비용 증가에 따른 사업자 부담 가중
넷째, 필터링 시스템을 운영하는 데는 큰 비용이 소요되는데, 이러한 비용은 중소기업이나 스타트업 등 작은 기업에게는 부담이 될 수 있으며, 비용 부담으로 인해 서비스 제공이 어려워질 가능성도 있다. 중소 게시판 사업자의 경우 추가적인 장비와 모듈을 통해 과도한 유지 관리 비용 소요될 수 있다는 점에서 그러하다.
6. 사전조치 의무규정의 한계를 극복하기 위한 방안
디지털 성범죄물을 확산 방지를 위한 현행 필터링 시스템의 한계를 극복하기 위해서는 다음과 같은 몇 가지 대안을 고려할 수 있다.
첫째, 이용자를 통한 신고 및 모니터링을 도입하는 방안이다. 이용자들의 콘텐츠를 사전에 필터링하는 것은 한계가 있기에 이용자들이 성적인 콘텐츠를 신고할 수 있는 채널을 마련하고, 해당 콘텐츠를 사후에 모니터링 내지 필터링하여 불법적인 콘텐츠가 업로드되는 것을 막거나 빠르게 내릴 수 있다.
둘째, 정부와 사업자의 책임을 명확하게 하는 것이다. 사업자들은 불법 콘텐츠를 업로드하는 이용자들을 식별하여 차단해야 하지만, 이에 따른 비용 부담과 법적 책임 발생 가능성이 높다. 이를 위해 정부는 사업자들과의 책임분담 방안을 명확히 하고, 이에 따른 보상제도를 마련함으로써 미이행 시 처벌 외에 사업자들이 적극적으로 대응할 수 있도록 지원하는 것을 고려할 수 있다.
셋째, 사업자 간의 협력과 정보교류를 통해 불법 콘텐츠를 신속하게 탐지하고 제거하는 방안을 모색할 수 있다. 또한 정부와 사업자 간의 소통 및 협업을 강화함으로써 필터링 시스템의 효율을 높일 수 있는데, 현재는 영상 소지가 불가하고 정부DB 매칭 시 즉시 삭제되기에 실행하기에 한계가 있다.
넷째, 민감한 콘텐츠에 대한 예외 처리를 할 수 있도록 하는 것이다. 디지털 성범죄물 DB와의 매칭을 통해 필터링하는 경우, 예외적인 사례가 있을 수 있다. 예를 들어, 성교육 콘텐츠나 성적 소수자에 대한 지지 콘텐츠 등이 디지털 성범죄물 DB에 등록되어 있을 수 있다. 정부의 DB가 일부 화면이나 내용을 성범죄물로 인지하고 필터링하면 부적절한 자료가 아님에도 필터링할 수 있으므로 이러한 경우를 고려해 민감한 콘텐츠에 대한 예외 처리 시스템을 도입할 필요가 있다.
7. 결어
현재 시행되고 있는 사전 의무 조치는 입법목적 달성이라는 측면에서 잘 지키는 사업자들에게는 필요한 범위를 넘어서는 과도한 의무를 규정하는 반면, 문제를 발생시키는 이들에게 현행 규제는 그 역할을 다하고 있다고 보기 어려울 정도로 빈틈이 많음을 알 수 있다.
입법 취지에는 충분히 공감하나 목적의 정당성만으로 행정적 규제 및 형사처벌의 근거 조항이 정당화되는 것은 아니고, 최대한 기본권을 덜 제한하는 방법을 통해서만 헌법상 기본권 제한이 가능하다는 점을 떠올려볼 수 있다. 현행 규제와 같이 정보의 생성과 유통을 지나치게 억제함으로써 현대사회의 기본적 의사소통 방법인 인터넷에서의 정보 유통을 차단함에 따라 발생할 수 있는 개인의 기본권 침해 위험이 상존함을 항시 명심하고 보다 실효적 대안 마련을 고민해야 할 것이다.