기사 공유하기

2015년 11월 4일, 검찰은 이석우 전 다음카카오 대표를 아동·청소년의성보호에관한법률(이하 아청법) 위반 혐의로 기소했습니다. 검찰은 기소 사유로 이 전 대표가 카카오 대표로 재직할 당시 온라인서비스 제공자로서 아동음란물을 발견하기 위한 기술적 조치를 하지 않아 지난해 6월 14일부터 8월 12일까지 ‘카카오그룹’에서 약 7,115명에게 아동음란물이 배포됐다고 밝혔습니다.

카카오의 모임서비스 카카오그룹

카카오 “기술적 조치 했다” vs. 검찰 “조치가 부족하다”

카카오 측은 “음란물 유통을 막기 위해 사업자로서 가능한 모든 기술적 조치를 취했고, 성인 키워드를 금칙어로 설정, 해당 단어를 포함한 그룹방 이름이나 파일을 공유할 수 없도록 사전적 조치를 취하고 있다”며 검찰의 기소에 반박했으나, 11월 10일 수원지검 성남지청은 보도자료를 내고 이 전 대표는 아동·청소년의성보호에관한법률 제17조 제1항과 시행령 제3조에 의거 온라인서비스제공자로서 아동·청소년이용음란물을 발견하기 위한 조치를 하지 않았다고 밝혔습니다.

[box type=”info” head=”아청법 제17조(온라인서비스제공자의 의무) 중”]
① 자신이 관리하는 정보통신망에서 아동·청소년이용음란물을 발견하기 위하여 대통령령으로 정하는 조치를 취하지 아니하거나 발견된 아동·청소년이용음란물을 즉시 삭제하고, 전송을 방지 또는 중단하는 기술적인 조치를 취하지 아니한 온라인서비스제공자는 3년 이하의 징역 또는 2천만 원 이하의 벌금에 처한다. 다만, 온라인서비스제공자가 정보통신망에서 아동·청소년이용음란물을 발견하기 위하여 상당한 주의를 게을리하지 아니하였거나 발견된 아동·청소년이용음란물의 전송을 방지하거나 중단시키고자 하였으나 기술적으로 현저히 곤란한 경우에는 그러하지 아니하다.
[/box]

[box type=”info” head=”아청법 시행령 제3조(아동ㆍ청소년이용음란물 발견을 위한 조치) 중”]
① 법 제17조 제1항 본문에서 “대통령령으로 정하는 조치”란 다음 각 호의 모든 조치를 말한다. 다만, 다른 법률에서 정한 조치를 함으로써 아동ㆍ청소년이용음란물을 발견할 수 있는 경우에는 다음 각 호에 해당하는 조치의 전부 또는 일부를 하지 아니할 수 있다.

  1. 이용자가 아동ㆍ청소년이용음란물로 의심되는 온라인 자료를 발견하는 경우 온라인서비스제공자에게 상시적으로 신고할 수 있도록 하는 조치
  2. 온라인 자료의 특징 또는 명칭을 분석하여 기술적으로 아동ㆍ청소년이용음란물로 인식되는 자료를 찾아내도록 하는 조치

② 온라인서비스제공자는 아동ㆍ청소년이용음란물로 판단하기 어려운 온라인 자료에 대해서는 「방송통신위원회의 설치 및 운영에 관한 법률」 제18조에 따른 방송통신심의위원회에 심의를 요청할 수 있다.

③ 여성가족부장관은 온라인서비스제공자가 아동ㆍ청소년이용음란물을 발견하고 삭제 등의 조치를 하는 데 필요한 행정적 지원을 할 수 있으며, 이를 위하여 온라인서비스제공자, 관계기관 및 관련단체와 협력체계를 구축할 수 있다.
[/box]

검찰은 카카오 측이 먼저 아동·청소년이용음란물에 대한 상시적 신고 기능을 제대로 갖추지 않았다고 했습니다. 그 이유는 음란물을 신고하려면 5단계나 거쳐야 하므로 접근성이 현저히 떨어진다는 것입니다. 신고를 위해 들어가야 하는 메뉴 순서는 다음과 같습니다.

  • 설정 → 도움말 → 문의하기 → 그룹생성오류 → 유해게시물신고

그리고 두 번째 근거로 금지어(금칙어) 등을 통한 아동·청소년이용음란물 필터링 기능을 도입하지 않았다고 했는데요, 카카오의 다른 서비스인 ‘카카오스토리’에는 이용자 본인을 소개하는 프로필에 음란물을 상징하는 단어를 금지어로 등록했고, 카테고리를 등록할 때 사용하는 단어에도 금지어 사용 불가 기능이 존재했지만 ‘카카오그룹’은 없어 그런 기능이 없어 유포 방지 조치를 취하지 않은 것으로 판단한 것입니다. 즉, 필터링 의무를 다하지 않았다는 것입니다.

아청법 시행령의 제3조 제1항 중 제1호가 상시적 신고 기능, 제2호가 필터링 조치를 뜻합니다.

카카오는 정말 필터링 조치를 허술하게 했나

현재 널리 사용되고 있는 필터링 기술은 데이터베이스(DB) 필터링과 키워드 필터링 정도가 있습니다. 아동음란물뿐만 아니라 저작물, 일반 음란물 필터링도 마찬가지입니다.

그런데 DB 필터링은 아동음란물로 판단된 자료에서 추출한 URL, 해시값, DNA 등의 DB를 기반으로 필터링하는 것입니다. 즉, 이미 유통되고 있는 아동음란물을 찾아내서 분석하지 않으면 DB를 만들 수가 없습니다. 따라서 매일 새로 쏟아지는 아동음란물을 걸러낼 수 없다는 한계가 있습니다.

그리고 아동음란물의 “소지”도 처벌하는 아청법을 엄격하게 해석하자면 목적이 어떻든지 간에 사업자들은 DB의 소지만으로 처벌받을 수 있는 위험이 있습니다. 정부나 수사기관에서 필터링의 기반이 되는 DB를 제공하면 사업자들이 협조하기가 편하겠지만, 여성가족부나 방송통신심의위원회는 별도의 아동음란물 DB를 가지고 있지 않습니다. 현재 사업자들은 민간 필터링 업체에 의존하고 있습니다.

또한, 키워드 또는 금칙어 필터링은 키워드를 조금이라도 바꾸면 무용지물이 되는 데다가 아동음란물에만 국한된 키워드가 매우 한정적이라서 실효성이 별로 없습니다. 예컨대 “로리”라든지 “교복” 같은 키워드가 사용되었다고 해서 꼭 아동음란물이라고 보기는 어려울 것입니다. 현재로써는 컴퓨터가 아동음란물을 자동으로 걸러내는 기술은 없다고 볼 수 있습니다. 웹하드 업체 등 사업자들은 최선을 다해 필터링하고 있지만, 아동음란물이 발견되기만 하면 필터링 조치를 제대로 취하지 못한 것이 되어 처벌을 받고 있다고 호소합니다.

사기업이 이용자의 모든 자료를 들여다봐야 한다고?

결국, 카카오와 같은 온라인서비스제공자가 아동음란물을 완벽하게 필터링할 수 있는 최후의 수단은 이용자가 공유하는 모든 이미지와 동영상을 육안으로 직접 확인하는 것입니다. 하지만 이 방법은 카카오그룹과 같은 폐쇄형 소셜미디어(SNS)에서는 이용자의 통신 내용을 들여다보는 것이라는 점에서 “감청”과 다를 것이 없습니다. 사인에 의한 감청은 통신비밀보호법 위반입니다. 설령 카카오에 이러한 권리를 허용한다 하더라도 극소수의 범죄자를 찾아내기 위해 모든 이용자의 헌법상의 기본권(사생활의 비밀)을 침해하는 결과가 초래됩니다.

만약 육안으로 모니터링을 하는 것이 타당하다 하더라도, 아동음란물은 법적인 개념이고 음란물인지 아닌지는 맥락으로 판단해야 하므로 여기에도 한계가 있습니다. 물론 누가 봐도 명백한 아동 포르노가 있겠지만, 예컨대 교복물이나 애니메이션의 경우 계속 논란이 되고 있습니다.

[box type=”info” head=”아청법 제2조(정의) 중”]

  1. “아동·청소년이용음란물”이란 아동·청소년 또는 아동·청소년으로 명백하게 인식될 수 있는 사람이나 표현물이 등장하여 제4호의 어느 하나에 해당하는 행위를 하거나 그 밖의 성적 행위를 하는 내용을 표현하는 것으로서 필름·비디오물·게임물 또는 컴퓨터나 그 밖의 통신매체를 통한 화상·영상 등의 형태로 된 것을 말한다.

[/box]

오픈넷이 제기한 아청법 헌법소원에서 헌법재판소는 2015년 6월 25일 5:4의 결정으로 해당 정의 규정이 헌법에 위반되지 않는다고 판단했습니다.

“아동·청소년으로 인식될 수 있는 사람”은 일반인의 입장에서 외모, 신원, 제작 동기와 경위 등을 종합하여 볼 때, 실제 아동·청소년으로 오인하기에 충분할 정도의 사람이 등장하는 경우를 의미함을 알 수 있고, “아동·청소년으로 인식될 수 있는 표현물” 부분도 전체적으로 표현물을 등장시켜 각종 성적 행위를 표현한 매체물의 제작 동기와 경위, 표현된 성적 행위의 수준, 전체적인 배경이나 줄거리, 음란성 등을 종합하여 판단할 때 아동·청소년을 상대로 한 비정상적 성적 충동을 일으키기에 충분한 행위를 담고 있어 아동·청소년을 대상으로 한 성범죄를 유발할 우려가 있는 수준의 것에 한정된다고 볼 수 있으며, 기타 법관의 양식이나 조리에 따른 보충적인 해석에 의하여 판단 기준이 구체화되어 해결될 수 있으므로, 명확성 원칙에 위반된다고 할 수 없다.

– 헌법재판소, 2013헌가17, 2013헌가24, 2013헌바85(병합) 이유의 요지 중

그러나 어떤 표현물이 성범죄를 유발할 우려가 있는 수준인지에 대한 명확한 기준은 없다고 하겠습니다. 성인교복물이나 애니메이션의 경우 법원에서 무죄 판결을 받기도 했지만, 사업자나 이용자의 입장에서 판단하기가 어렵고 형사처벌을 받을 수 있으므로 이렇게 조금이라도 의심이 있는 경우에는 아동음란물로 판단하고 삭제를 하게 됩니다.

과도한 필터링 의무 부과, 국제적인 흐름에 역행한다

아청법상 필터링 의무는 이런 기술적 또는 현실적인 한계가 있을 뿐만 아니라, 더 중요하게는 정보매개자에게 불법정보에 대해 일반적인 감시 의무를 부과하는 것을 금지하는 국제적 흐름에 역행한다는 문제가 있습니다.

정보매개자란 다양한 정의가 있을 수 있지만, OECD 보고서를 보면 “인터넷상 제3자들이 생산한 정보의 공유가 가능한 플랫폼을 제공해주는 자”를 말한다고 하겠습니다. 이 기준에 맞기만 하면 ISP든, 검색엔진이든, SNS든 다 정보매개자가 됩니다. 다만 정보를 편집하거나, 직접 제작하거나 유통하는 경우에는 정보매개자라고 할 수 없습니다.

정보매개자의 책임이란 이러한 정보매개자가 제3자, 즉 이용자들이 유통하는 불법정보에 대해 책임을 져야 하는지의 문제입니다. 불법정보를 게시하거나 직접 유통한 자는 당연히 책임을 져야겠지만, 정보매개자의 서비스가 단순히 불법정보 유통에 사용된 경우에는 달리 봐야 할 것입니다.

예컨대 택배를 통해 마약이나 무기가 거래된 경우 택배사도 같이 처벌해야 할까요? 특별한 사정이 없다면 그래서는 안 될 것입니다. 그런 맥락에서 정보매개자의 책임 제한을 논의하게 됩니다. 현재 책임 제한에는 두 가지 원칙이 있습니다.

  • 첫째, 피난처(세이프 하버; safe harbor)
  • 둘째, 일반적 감시 의무 금지

피난처는 일정한 조건하에서 정보매개자를 제3자가 유통한 정보에 대한 책임으로 면책을 시켜준다는 것인데, 주로 권리자나 이용자에 의한 통지가 있어서 정보매개자가 불법정보에 대해 알게 된 경우에만 책임을 진다는 내용입니다.

즉, 일반적 감시 의무 금지는 말 그대로 정보매개자에게 정보를 일반적으로 감시, 즉 모니터링할 의무를 지워서는 안 된다는 내용입니다. 일반적 감시 의무 금지는 말 그대로 정보매개자에게 정보를 일반적으로 감시, 즉 모니터링할 의무를 지워서는 안 된다는 내용입니다.

왜 정보매개자의 책임을 제한해야 하는가

그럼 왜 정보매개자의 책임을 제한해야 할까요? 나아가 일반적인 감시의무 내지 필터링 의무 부과는 금지되어야 할까요? 그 필요성은 크게 세 가지로 나눌 수 있습니다.

먼저 인터넷의 문명사적 의미입니다. 헌법재판소에 의하면, 인터넷이란 익명 표현을 통해 민주주의 발전의 물적 토대를 제공하며, 사상의 자유시장에 가장 근접한 매체로 가장 참여적인 매체입니다. 즉 인터넷은 개인들이 타인의 허락 없이 공적 소통을 할 자유가 있는 공간으로, 그 특성으로 인하여 인류의 역사를 매우 짧은 시간 안에 완전히 바꾸어 놓았습니다. 누구의 허락도 받지 않고 소통을 할 수 있는 자유가 허락된 공간이 인터넷인 것입니다.

그런데 만약 이런 공간을 제공하는 정보매개자들에게 자신이 알 수 없는 불법행위들에 대해 책임을 지우기 시작한다면, 정보매개자들은 책임을 회피하기 위해 개개인의 소통을 검열하고 제한하거나, 아예 닫아버리게 됩니다. 그럼 결국 문명사적 중요성을 획득한 인터넷의 원천이 파괴될 수 있습니다. 허락받은 소통만이 가능한 공간은 더는 인터넷이 아니게 되는 것입니다.

헌법재판소 99헌마480 중

두 번째 이유는 이용자의 인권 보호를 위해서입니다. 사업자들에 의해 이루어지는 사적 검열은 이용자들의 프라이버시를 침해합니다. 특히 그러한 검열이 카카오톡이나 이번에 문제가 된 카카오그룹 같은 통신 수단에 대해 이루어진다면 앞서 말씀드렸듯이 감청이나 다름이 없습니다.

또한, 이런 검열은 위축 효과를 불러오게 됩니다. 그리고 정보매개자는 조금이라도 문제가 될만한 정보라면 차단하고 삭제해서 책임을 회피하려 할 것입니다. 특히 책임이 클수록, 제한 요건이 불분명할수록 그럴 것입니다. 이는 온라인 표현의 자유를 또한 심각하게 침해하게 됩니다.

마지막으로는 인터넷 산업의 혁신과 발전을 위해서입니다. 필터링 기술이 날로 발전하고 있다고 해도, 아동음란물과 같은 법적 판단이 필요한 정보의 경우 결국은 육안으로 확인하는 수밖에 없습니다. 또한, 모니터링 내지 필터링 시스템을 갖추어야 하는 것은 1인 사업자나 대기업이나 마찬가지인데, 단지 정보매개자라는 이유로 이러한 과도한 부담을 지게 된다면 관련 산업을 위축시킬 뿐만 아니라 진입장벽을 만들게 됩니다.

그래서 국제적인 흐름은 이러한 일반적 감시의무를 금지하고 있습니다. 전 세계의 시민단체가 성안한 정보매개자책임에 관한 마닐라 원칙에서도 “정보를 적극적으로 모니터링할 의무를 부과해서도 안 된다”고 하고 있고, EU의 전자상거래지침, 저작권에만 적용되긴 하지만 미국 디지털 밀레니엄 저작권법 등이 대표적인 예입니다. 그러나 우리나라는 이러한 국제적 흐름에 역행하여 일반적 감시의무를 부과하는 법들이 많습니다.

마닐라 원칙

[box type=”info”]

마닐라 원칙

  1. 정보매개자는 제3자의 정보에 대한 책임으로부터 법적으로 보호되어야 한다.
  2. 사법당국의 명령 없이 정보 제한을 의무화해서는 안 된다.
  3. 정보 제한 요청은 명확하고, 모호하지 않으며, 적법절차를 따라야 한다.
  4. 정보 제한 관련 법, 명령 및 관행은 필요성과 비례성의 원칙을 준수해야 한다.
  5. 정보 제한 관련 법, 정책 및 관행은 적법절차를 존중해야 한다.
  6. 정보 제한 법, 정책 및 관행은 투명성과 책임성을 확립해야 한다.

[/box]

특히나 아청법 제17조는 정보매개자 책임과 관련하여 전 세계적으로 유례가 없는 내용을 규정하고 있습니다. 물론 아동음란물 규제는 필요하지만, 제작자나 유포자가 아닌 단순한 정보매개자에게 과도한 책임을 지우는 것이 문제입니다. 정보매개자도 기여 정도에 따라 제작자나 유포자, 또는 방조자로 처벌하면 되는데, 사전적인 필터링을 제대로 하지 못했다고 하여 처벌을 하는 것은 어떻게 보면 국가가 해야 할 일을 정보매개자에게 떠넘기는 것이나 마찬가지입니다.

이렇게 정보매개자를 범죄를 막지 못했다는 이유로 범죄자와 동일시하여 과도한 형사책임을 지우는 것은 지양되어야 합니다. 오픈넷은 해당 규정이 최대한 빨리 폐기되어야 한다고 보고 있습니다. 아니면 사업자가 발견한 경우에는 신고 의무를 지우는 정도로 수정되어야 할 것이며, 궁극적으로는 사업자를 아동음란물 단속의 파트너로 보고 자율규제를 장려하고 선진국의 사례처럼 사업자-관계당국-시민사회의 원만한 협조체계를 구축해서 대응해야 할 것입니다.

관련 글

첫 댓글

댓글이 닫혔습니다.