earticle

논문검색

기획논문 : 디지털 시대, ‘표현의 자유’에 관한 다면적 접근

디지털 플랫폼에 의한 ‘사적 검열(private censorship)’

원문정보

홍남희

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

Content moderation is a major activity of digital platforms, performed to block or remove illegal or harmful content freely uploaded by users. Many countries ask digital platforms to employ active moderation to protect their citizens from illicit or harmful content such as hate speech, sexual material, fake news, terrorist propaganda, and child pornography. Some countries recommend self-regulation on platforms to avoid controversies related to censorship and enforce legal responsibilities within their judicial power. Also, the platforms themselves are major actors in the moderation of user content because of growing concerns surrounding the personal rights of users. In this paper, the researcher presents cases to categorize the moderation of user content by private companies as a form of private censorship. First, the researcher summarized discussions about critical features of these platforms. Digital platforms are the media of “peer-to-peer exchange” content that is responsible for the growing need for content moderation. Along with that, global platforms based in the US can be escaped from local jurisdictions. Second, private censorship is related to self-regulation because the subject falls under the “private” sector. This means that platforms function as private actors in censoring user content as delegated by the state. Legal enforcement for platforms to remove or block harmful content is related to the strengthening of moderation actions taken by the platforms themselves. This moderation is essential in the platform society as platforms play the role of censors exercising significant authority over user content. Especially, they may infringe minority groups’ rights of free expression or delete some ambiguous content because they are lack of time and sensibilities to consider local or social context. Therefore, this study aims to identify discreet moderation actions that are adopted by platforms and to categorize them under the concept of private censorship. In particular, the study will present how these moderators serve as alternative censors of the state, and how they infringe on an individual’s right to free speech, particularly its effect on minority groups that have to change their community guidelines or technological affordances.

한국어

수많은 개인이 누구나 자신의 콘텐츠를 업로드할 수 있는 디지털 플랫폼 환경은 사회적으로 문제가 되는 콘텐츠의 유통 또한 기하급수적으로 증가할 수 있음을 시사한다. 또한 디지털 플랫폼을 통해 발화할 수밖에 없는 매체 이용 환경은 문제 되는 표현의 관리자가 디지털 플랫폼일 수밖에 없음을 보여준다. 이러한 상황에서 사회적으로 문제가 되는 콘텐츠를 삭제, 차단하거나, 이용자 계정을 정지, 삭제, 차단하는 식의 콘텐츠 ‘모더레이션(moderation)’ 업무가 디지털 플랫폼의 핵심적인 업무가 되어 가고 있다. 콘텐츠 ‘유통’ 자체가 핵심적인 사업 활동인 만큼 이용자 및 콘텐츠를 관리하는 것이 사업의 본질이 되기 때문이다. 이러한 상황에서 이 연구는 민간 사업자에 의한 검열을 의미하는 ‘사적 검열’ 논의를 통해 국가와 플랫폼의 관계, 글로벌-로컬의 관계, 플랫폼-개인의 관계를 개념화하였다. 또한 구체적인 사적 검열의 사례를 국가-플랫폼의 관계, 플랫폼의 모더레이션 강화 유형 및 사례 분석을 통해 살펴보았다. 먼저 이 연구는 개인 간 콘텐츠의 유통을 매개하는 플랫폼의 매체적 특성에 따라 ‘모더레이션’ 업무가 플랫폼의 주요 업무로 부상하는 과정을 정리하고, 자율규제와 사적 검열의 논의를 개념화했다. 이 연구에서는 플랫폼에 의한 사적 검열을 첫째, 국가와의 관계 속에서 국가 검열의 대행자로서의 플랫폼, 국가가 플랫폼 책임을 입법화하는 시도로 정리하였다. 둘째, 각 국가와 사회의 요구에 대응해 플랫폼이 각종 모더레이션 장치와 방식을 강화하는 사례들을 유형화하여 분석하면서 이러한 조치들이 구체적으로 어떻게, 누구의 표현의 자유를 침해하는지 살펴보았다. 이는 사회적 소수자의 표현이 플랫폼 상에 등장할 가능성을 더 축소시키고 있었으며, 자동 차단 장치의 도입이나 제3세계 저임금 노동자들에 대한 외주화를 통해 언어적, 지역적, 역사적, 상황적 맥락을 고려하지 않는 모더레이션을 실행시키고 있었다. 또한 수익화 방식의 변경은 소수자 커뮤니티나 대중적이지 않은 주제의 출현을 차단하고, 혐오발언과 선정적 콘텐츠를 계속 출현시키는 결과로 나타나고 있었다. 이 연구는 이와 같은 분석을 통해서 디지털 플랫폼이 현대 사회의 사적 검열자로 부상하고 있다는 점을 드러냈으며, 플랫폼에 의한 검열을 국가와 개인 이용자와의 관계 속에서 맥락화하였다. 특히 표현의 자유가 단순히 특정한 표현을 행할 자유를 넘어 누구의 표현이 등장하고 배제되는지의 차원에서 확장될 필요성을 제기했다. 이 연구에서는 플랫폼 시대의 문제를 개선하기 위해 다양한 차원에서의 개입이 필요함을 주장했다.

목차

국문초록
Ⅰ. 들어가며
Ⅱ. 논의의 배경
1. 디지털 플랫폼(digital platform)과 콘텐츠 규제
2. 플랫폼 시대 자율규제와 사적 검열
Ⅲ. 플랫폼의 사적 검열 실천 사례와 문제점
1. 국가-플랫폼 관계와 사적 검열
2. 내부 모더레이션 기능의 강화와 모순
Ⅳ. 결론 및 의미
참고문헌
ABSTRACT

저자정보

  • 홍남희 Hong, Namhee. 연세대학교 커뮤니케이션연구소 전문연구원

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 기관로그인 시 무료 이용이 가능합니다.

      • 8,200원

      0개의 논문이 장바구니에 담겼습니다.