페이스북과 인스타그램을 운영하는 메타는 매 분기 투명성 보고서를 발행한다. ⓒAFP PHOTO

페이스북과 인스타그램을 운영하는 메타는 매 분기 두 SNS와 관련한 투명성 보고서(transparency reports)를 발행한다. 이 투명성 보고서는 2017년 4분기부터 매 분기 페이스북과 인스타그램의 정책을 위반한 수치를 항목별로 제시한다. 예를 들어 혐오 표현(hate speech)의 경우, 2017년 4분기에는 페이스북 게시물 160만 개가량이 적발됐다. 2021년 2분기에는 3150만 개가 적발돼 공개된 기간 데이터 중 가장 많았으며, 가장 최근인 2022년 1분기에는 혐오 표현 1510만 개가 적발됐다.

이렇듯 실제로 조치한 데이터와 함께 메타는 출현율, 사전 대응률 등의 데이터도 함께 공개한다. 출현율은 정책 위반으로 적발된 콘텐츠들을 페이스북, 인스타그램 이용자들이 보게 될 가능성을 의미한다. 전체 콘텐츠 중 규정 위반 콘텐츠의 비중이 아니라 일반 이용자들이 페이스북 및 인스타그램을 이용하는 도중 규정 위반 콘텐츠를 보게 될 가능성을 의미한다.

혐오 표현의 경우 2022년 1분기 출현율은 약 0.02%이다. 사전 대응률은 이러한 규정 위반 콘텐츠들이 이용자에게 보이기 전에 삭제된 비율을 의미한다. 예를 들어, 혐오 표현 정책 위반으로 적발된 게시물 대부분은 삭제되고 있으며, 메타의 투명성 보고서에 따르면 이 중 90% 이상은 기계적 조치에 따라 자동 삭제되고 있다.

물론 부족한 부분도 많다. 전체 데이터를 한 번에 내려받을 수 없어서 항목별로 모아봐야 하며, 각각을 어떻게 산출했는지를 대략 설명하고 있지만 검증해볼 방법은 없다. 구글, 트위터 등도 메타와 비슷한 투명성 보고서를 공개하고 있지만 완전히 투명하다고 보기는 어렵다. 그럼에도 불구하고, 이러한 투명성 보고서를 통해 대략적으로나마 각 서비스에서 발생하는 문제들을 짐작해볼 수 있다는 점은 의미 있다. 어떤 정책을 적용하고 이의 실질적 적용을 위한 조치를 어떻게 취하고 있는지 알 수 있기 때문이다. 투명성 보고서의 한계는 같이 논의하면서 천천히 극복해나갈 수 있다. 메타는 “혐오 발언은 기술 및 직접 콘텐츠 검토 팀에서 감지하기가 특히 어렵다. 관용구와 미묘한 차이는 문화, 언어 및 지역에 따라 큰 차이가 있다”라며 혐오 표현 적발에 사용되는 기술의 한계점을 스스로 밝혔다.

투명성 구현할 때 신뢰 복원할 수 있다

우리나라 언론사들도 이러한 성격의 투명성 보고서를 발행해보면 어떨까 제안하고 싶다. 플랫폼 기업에만 요구할 것이 아니라, 언론사들도 자신의 기사가 어떻게 얼마나 작성되고 유통되는지 이용자들에게 알린다면, 상당한 흥미를 끌 수 있으리라 본다. 거창한 내용을 담으라는 것이 아니라, 매 분기 우리 언론사는 기사 몇 건을 발행했으며 이 기사들 중 몇 건은 오프라인에 게재됐고, 몇 건은 온라인에만 게재됐는지, 그중 기사 몇 건을 삭제했는지, 삭제의 이유는 무엇인지 등 기초 정보만이라도 제공해보면 좋겠다. 이러한 기초 정보 공개를 시작으로 각 언론사들이 치열하게 거치고 있는 기사 제작 과정을 이용자들에게 알리는 것으로 나아갔으면 한다. 기사 하나를 발행하는 데 얼마나 많은 논의와 고민이 있는지를 밝히는 것이다.

사람과 사람 사이 신뢰의 기본은 솔직함이다. 언론 신뢰 위기의 원인에는 한국 언론의 불투명성도 크게 기여했다고 본다. 정보의 속도와 양이 기하급수적으로 늘어난 현 시대에는 객관성·공정성 등 전통적 저널리즘 기본 원칙들보다 투명성이 우선할 수 있다. 투명성을 구현할 때 신뢰를 복원할 수 있다. 이 글을 싣고 있는 〈시사IN〉이 먼저 나서줬으면 하는 바람도 있다.

저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다
첫 마음 첫 다짐 잊지 않겠습니다