소셜미디어 기업들, 왜 경쟁적으로 ‘청소년 보호’ 기능 도입하나

유럽 각국과 미국에서 미성년자들의 소셜미디어 사용에 대한 강화된 기준이 속속 적용되고 있다. 유럽연합과 미국 정부는 청소년들을 포함한 미성년자들을 소셜미디어의 부작용으로부터 보호하기 위한 다양한 법률을 추진하거나 시행에 나서고 있다. 글로벌 소셜미디어 기업들은 청소년 보호 조처를 만들고 부모들에게 자녀들의 소셜미디어 이용을 관리할 수 있는 권한을 부여하고 있다. 유럽 각국과 미국에서 미성년자를 소셜미디어의 각종 위험성으로부터 보호하기 위한 정부와 기업 차원의 조처를 살펴보고 그 배경과 의미를 점검해 본다.

# 인스타그램, 페이스북, 틱톡 등 잇단 ‘청소년 보호 기능’

-메타의 페이스북과 인스타그램

메타는 2023년 6월 27일 페이스북과 인스타그램에 10대 자녀 보호 기능을 제공하는 ‘가족센터(패밀리센터)’를 개설한다고 블로그를 통해 발표했다. 자녀의 페이스북 메신저를 부모가 모니터링할 수 있는 기능이 생겼다. 부모는 이를 통해 10대 자녀가 메신저를 이용하는 시간과 메신저 연락처 목록을 확인할 수 있다. 자녀가 메신저에서 다른 이용자를 신고한 경우 부모에게 알림도 보내준다. 자녀가 낯선 이용자와 소통하는지 파악할 수 있으며, 자녀에게 메시지를 보낼 수 있는 사람과 스토리를 볼 수 있는 사람이 누군지도 알아볼 수 있다. 자녀가 관련 설정을 변경하면 부모에게도 알림이 간다. 인스타그램에도 부모에게 모니터링 기능이 제공된다. 부모는 자녀의 인스타그램 팔로우와 팔로워 계정을 확인할 수 있어, 자녀가 누구와 접촉하는지 파악할 수 있다, 인스타그램에서 자녀가 수락하기 전에 팔로워가 아닌 사람이 메시지를 보낼 수 없도록 하는 기능도 추가됐다.

앱의 사용 시간도 설정할 수 있다. 페이스북에서 이용시간 20분을 넘으면 앱 종료를 권유하는 알림을 띄울 수 있고, 사용자별로 일일 사용 시간을 직접 제한할 수도 있다. 인스타그램에서도 늦은 밤까지 오랜 시간 동영상을 시청할 경우 종료 권유 기능이 생겼다.

가족센터의 관리 감독 도구는 자녀와 부모의 상호동의가 있을 때만 사용이 가능하다. 동의를 해도, 부모는 자녀의 채팅 내용, ‘좋아요’ 클릭 여부, 친구와의 쪽지(DM), 검색 결과 등은 확인할 수 없다. 가족센터 기능은 14~18살 자녀를 대상으로 하며, 자녀가 19살 생일이 되면 자동 종료된다.

-틱톡

2023년 3월 틱톡은 18살 아래 사용자의 이용 시간을 60분으로 제한하기로 했다고 밝혔다. 이에 따라, 18살 이하 사용자는 60분을 넘겨 틱톡을 쓰려면 별도의 암호를 입력해야 한다. 틱톡은 하루 100분 이상 사용하면서 60분 제한 시간을 기본으로 선택하지 않은 청소년 사용자들은 스스로 사용 제한 시간을 설정하도록 유도할 것이라고 설명했다. 부모가 자녀의 이용 시간을 요일별로 설정하고 이용 시간 등을 보여주는 대시보드에 접근할 수 있는 기능도 추가됐다.

틱톡은 2020년부터 ‘세이프티 페어링’을 도입해 부모가 자녀의 이용 시간과 콘텐츠를 제한하고 특정인의 메시지를 통제할 수 있게 하고 있다. 부모와 자녀의 틱톡 계정을 연결해 부모가 자녀의 틱톡 이용 상황을 파악하거나 관리할 수 있도록 하는 기능이다. 세이프티 페어링을 활성화하면 보호자는 자녀의 앱 사용 시간을 하루 40분에서 120분 사이로 조정해 자녀가 설정된 시간 동안만 앱을 사용하게 할 수 있다. ‘제한 모드’를 활성화하면 미성년자에게 부적절하다고 판단되어 위험라벨이 붙은 영상은 필터링돼 표시되지 않고, 메시지 관리 기능에서 자녀에게 쪽지를 보낼 수 있는 이용자의 범위를 ‘모두’ ‘친구’ ‘끄기’ 중에서 설정할 수 있다.

# 각국 정부의 경쟁적 소셜미디어 규제

10대들이 이용하는 대표적인 글로벌 소셜미디어인 인스타그램, 페이스북, 틱톡 등이 비슷한 시기에 유사한 형태의 ‘부모 모니터링, 관리 도구’를 제공하기로 나선 것은 우연이나 자발적 결정이 아니다. 중요한 배경이 있다. 하나는 각국 정부와 의회가 소셜미디어에 청소년 보호 의무를 부과하기로 한 법률과 입법 움직임이다.

-미국

2023년 3월 미국 유타주에서는 18살 이하 이용자가 인스타그램, 틱톡, 페이스북 같은 소셜미디어를 이용하려면 부모 허락을 받도록 하는 법안이 주의회를 통과해, 2024년 3월부터 시행된다. 이에 따라 유타주는 미국에서 처음으로 소셜미디어 사용을 부모가 제한할 수 있는 지역이 됐다. 이 법이 시행되면 소셜미디어 기업은 유타 주민이 계정을 만들 때 나이를 확인해야 하며, 18살 이하 이용자는 부모 허락을 받도록 했다. 소셜미디어 기업은 유타주에서 부모가 자녀 계정의 게시물에 접근하는 것도 허용해야 한다. 또 미성년자 대상으로 광고를 게시하는 게 금지되고, 검색 결과에 미성년 계정을 노출하는 것도 차단된다. 미성년자를 대상으로 정보를 수집하고 특정 콘텐츠를 제안하거나, 고의로 중독성 기술을 적용하는 것도 금지된다. 부모 동의가 없는 한 미성년자의 소셜미디어 앱에서는 밤 10시 30분부터 아침 6시 30분까지 계정이 잠기게 된다.

스펜서 콕스 유타주 지사는 이 법에 서명하면서 “더 이상 소셜미디어 회사들이 청소년의 정신 건강을 해치도록 방치하지 않을 것”이라고 밝혔다. 미국 언론에 따르면 보수성이 강한 유타주 외에도 오하이오, 미네소타, 코네티컷, 아칸소 등 4개 주에서 유사한 법안을 검토하고 있어, 향후 확산이 예상된다.

이에 앞서 2022년 루이지애나 주의회는 미성년자에게 유해한 콘텐츠의 게시자에게 성인 여부를 확인하도록 요구하는 법안을 통과시켰고 미국의 24개 주에서도 유사한 법안이 도입됐다. 2023년 4월 미국 상원의원 4명은 ‘소셜미디어에서 어린이보호법’을 발의했다. 이 법안은 소셜미디어가 이용자의 나이를 확인하고, 13살 미만 아동의 가입을 금지하며, 13~17살 사용자에 대해서는 부모의 동의를 얻도록 의무화하는 내용을 담고 있다.

-유럽연합

유럽연합(EU)에서는 디지털서비스법(Digital Services Act, DSA)이 2023년 8월 25일부터 발효됐다. 인터넷 허위정보와 혐오발언, 불법 콘텐츠로부터 이용자를 보호하기 위해 제정된 법률로, 청소년 보호와 관련한 강력한 조처를 요구한다. 법에는 알고리즘이 10대 소녀들에게 다이어트 영상을 추천하지 못하도록 하고, 미성년자 계정에서 ‘동영상 자동재생’ 기능의 비활성화 등이 포함돼 있다. 디지털서비스법 시행에 따라 틱톡과 페이스북, 유튜브, 인스타그램, 엑스(X, 트위터), 스냅챗 등의 소셜미디어는 매년 미성년자 보호와 관련한 알고리즘, 디자인, 광고 및 서비스 약관의 영향에 대한 평가서를 제출하고 규정 준수 여부를 평가받는다.

디지털서비스법은 브라우저, 메신저, 소셜미디어 등의 서비스로, 유럽연합에서 월간 사용자 4500만 명과 연간 비즈니스 사용자 1만 명 이상인 기업에 대해 적용된다. 유럽연합은 2023년 4월 디지털서비스법이 적용되는 19개의 플랫폼 서비스의 목록을 발표했다. 알리바바 알리익스프레스, 아마존 스토어, 빙, 부킹닷컴, 페이스북, 구글 플레이, 구글 지도, 구글 검색, 구글 쇼핑, 인스타그램, 링크트인, 핀터레스트, 스냅챗, 엑스, 위키피디어, 유튜브, 잘란도(독일 온라인 쇼핑몰) 등이다. 이들 거대 플랫폼 서비스는 디지털서비스법을 위반할 경우 연간 글로벌 매출의 6%까지 벌금이 부과될 수 있으며, 서비스 일지중지 명령도 받을 수 있다.

-영국

영국에서도 유럽연합의 디지털서비스법과 유사한 형태의 법안이 마련되고 있다. 영국은 2019년 세계 최초로 온라인 안전법안(Online Safety Bill)을 의회에 제출하고, 2023년 초 하원을 통과하는 등 연내 입법이 완료될 예정이다. 이 법은 온라인에서 아동과 청소년을 안전하게 보호하기 위해, 주로 소셜미디어 플랫폼에 대한 정부 차원의 관리와 미성년이 유해 콘텐츠에 접근할 수 없게 하는 조처다. 소셜미디어에서 자해를 조장하는 콘텐츠 등 불법 콘텐츠를 신속히 삭제하거나, 처음부터 노출되지 않도록 한다. 소셜미디어 기업은 위험평가를 공개하고 아동과 청소년에게 가해질 수 있는 위험성을 투명하게 밝히도록 한다. 또한, 아동·청소년이 유해물에 접근할 수 있는 나이를 제한하도록 요구하며, 13살 미만 어린이들이 계정을 만들 수 없도록 소셜미디어 기업은 나이 확인 기술을 사용하여 엄격히 관리하도록 하고 있다.

특히 영국의 온라인 안전법은 디지털서비스법이 거액의 벌금 조항을 둔 것과 달리, 벌금만이 아니라 위법 기업의 임원에 대해 최대 2년까지 징역형을 부과할 수 있다는 형사처벌 조항을 마련하기로 했다는 점에서 주목받고 있다.

# 자녀 소셜미디어 관리? 통제?

정부가 소셜미디어 기업들에 대해 미성년자 보호와 관련해 강력한 규제를 가하고 위반 시 거액의 벌금과 형사처벌을 검토하는 상황은 기업 반발과 실효성 논란을 부르고 있다.

특히 소셜미디어만이 아니라 검색엔진과 위키피디아와 같은 서비스도 규제 대상이 된 데 대한 반발이 크다. 언론과 시민단체에서는 개인의 사생활 권리 침해이자 표현 자유 훼손이라는 반대 목소리도 제기되고 있다.

정부가 소셜미디어와 거대 플랫폼 서비스에서 불법, 유해 콘텐츠 유통에 대한 강력한 처벌을 요구하게 되면 기업들이 처벌을 피하기 위해 개인 간 채팅방을 모니터 하거나 이용자들의 콘텐츠를 검열할 수도 있다는 우려도 제기되고 있다.

또한 소셜미디어 기업들에게 13살 이하의 미성년자가 계정을 만들거나 사용하지 못하도록 나이 확인을 요구하는 조처는 우회 기술로 인해 실효성이 크게 떨어진다. 미국의 정보인권 단체들은 유타주의 법률은 플랫폼 기업으로 하여금 청소년과 부모의 민감 정보를 수집하라고 요구하는 것이며, 표현 자유에 정면으로 위배된다며 위헌 가능성을 거론하고 있다.

소셜미디어 기업들이 청소년들의 이용 시간제한 기능을 제공하는 것 또한 실효성에 대한 회의가 사라지지 않고 있다. 많은 청소년이 스마트폰과 소셜미디어 앱이 제공하는 부모 통제 장치를 우회하는 데 이미 익숙해져 있는 현실이다. 소셜미디어의 자녀 보호 기능이 보호가 아닌 ‘감시’가 되어 가족관계에 나쁜 영향을 끼칠 가능성을 우려하는 견해도 있다.

# 소셜미디어 기업, 내부고발 이후 새로운 사회책임 몰려

글로벌 소셜미디어들이 잇따라 청소년 보호 기능을 도입한 또 하나의 배경은 소셜미디어 기업들이 수익 증대를 위해 이용자들의 정신건강을 해치는 서비스를 실행하고 눈감아온 현실이 내부고발로 인해 밝혀졌다는 사실이다. 대표적 사례가 2020년 9월 페이스북에서 수석 제품매니저를 지낸 프랜시스 하우건이 <월스트리트저널> 등의 언론을 통해 고발한 페이스북의 내부문서와 증언이었다. 페이스북이 자회사 인스타그램 알고리즘이 10대 청소년의 정신 건강에 유해하다는 사실을 알고도 이를 중단하지 않고 계속 이용한 사실이 내부고발과 자료로 인해 적나라하게 드러났다.

페이스북의 내부 자료에 따르면, 페이스북은 3년 동안 인스타그램이 젊은 사용자층에 어떤 영향을 주는지 내부적으로 여러 차례 심층 조사했고, 인스타그램 인플루언서들이 특히 10대 여성 청소년에게 큰 악영향을 끼친 사실이 드러났다. 페이스북 연구진은 내부 게시판에 올라온 프레젠테이션 파일에서 “10대 소녀의 32%가 ‘인스타그램이 나를 더 비참하게 만든다’라고 답했다”며 “온라인상 비교는 젊은 여성이 스스로 어떻게 생각하는지에 영향을 미친다”고 밝히는 등 악영향을 알고 있었지만, 알고리즘을 수정하지 않았다. 또한 자살을 생각한 10대 중 영국 이용자의 13%, 미국 이용자의 6%가 자살충동 계기로 인스타그램을 지목했지만 메타는 이용자 확대를 위해 이런 유해한 알고리즘을 방치했다. 10대에 끼치는 악영향을 잘 알고 있으면서도 메타 경영진은 오히려 13살 이하 어린이용 인스타그램을 별도 개발하는 등 미성년 이용자 확대에 안간힘을 써온 사실도 드러났다.

내부고발 이후 미국 의회는 마크 저커버그 등 인터넷 기업 대표를 출석시킨 가운데 잇단 청문회를 개최하고, 소셜미디어로 인해 자녀를 잃은 미국 학부모들은 의원들을 찾아가 청원을 하고, 소셜미디어 기업을 대상으로 한 소송이 잇따랐다. 메타는 2022년에만 일리노이, 텍사스, 플로리다 등 미국 8개 주의 청소년 이용자와 부모로부터 소송을 당했다. 원고들은 “소셜미디어에 자녀들이 과다 노출되면서 섭식장애와 불면 증상이 생겼고 극단적 선택 시도 또는 실행으로 이어졌다”며 메타가 프로그램 설계 결함, 경고 불이행, 사기, 방관 등의 혐의가 있다고 주장했다.

최근 소셜미디어 기업들이 잇따라 미성년자 보호 기능을 도입하는 배경에는 유럽연합과 미국 등에서 적극적으로 규제 법안을 제정하는 현실과 그에 앞서 내부고발로 소셜미디어 기업들의 미성년자 정신건강 피해를 유발하는 알고리즘의 존재가 드러난 사실이 있다.

소셜미디어 서비스가 도입하는 미성년자 보호 조처가 얼마나 실효성을 지닌 수단일지에 대한 논란은 앞으로도 여전하겠지만, 소셜미디어에 대한 사회적 합의가 어느 정도 마련된 것도 분명하다.

청소년들의 자살과 거식증, 우울증, 정신건강 위해성 측면에서 소셜미디어 기업들이 직간접적으로 큰 영향을 끼치고 있다는 사실과 앞으로도 각국 정부와 시민들이 관련 기업들에 대해 영향력에 걸맞은 책임을 점점 더 강하게 요구할 것이라는 점이다. 또한 온라인에서 청소년 보호가 법률과 기술 도입만으로 해결될 수 없기 때문에 학부모를 비롯한 가정과 사회 전체의 관심과 노력이 병행되어야 한다는 것도 무거운 과제다.

저자 : 구본권

KISO저널 편집위원 / 한겨레신문사 사람과디지털연구소장