[아이티데일리] 소셜 네트워크 대기업과 미 정부와의 갈등이 첨예한 상황에서 소셜 네트워크에 게시되는 콘텐츠 감시 기능이 많이 떨어진다는 주장이 제기돼 관심을 끈다고 포브스 등 외신들이 보도했다.

가입자가 20억 명을 훌쩍 넘어서고 있는 페이스북에는 하루에도 최소 수천만 건 이상의 콘텐츠가 올라온다. 트위터나 구글 등 다른 대기업들도 가입자 규모에 따라 차이가 있을 뿐 셀 수 없을 정도의 콘텐츠가 올라오는 것은 마찬가지다.

포브스지에 따르면 뉴욕대학 경영대학원(MBA)의 조사 결과 페이스북에서 콘텐츠의 감시에 해당하는 ‘모더레이터’들이 하루에 들여다 보는 페이북 게시 콘텐츠는 무려 300만 건에 이르는 것으로 나타났다. 이들 게시글의 팩트가 사실인지, 의심스러운 페이크 정보인지, 윤리적으로 타당한지 등을 점검하는 것이다.

▲ 소셜 네트워크에 게시되는 콘텐츠 감시 기능이 많이 떨어진다는 주장이 제기돼 관심을 끈다. <사진=로이터>

마크 저커버그 CEO는 모더레이터가 인력으로 콘텐츠 정밀조사를 할 경우 10건 당 1건의 오류를 범할 가능성이 있다고 밝힌다. 그 논리라면 모더레이터의 검사로만 하루 30만 건의 실수가 빚어지고 있다는 얘기다.

페이스북은 약 1만 5000명의 모더레이터를 고용하고 있으며, 그들은 매일 300만 건의 게시물을 감시한다. 모더레이터 1명이 하루에 200건의 게시물을 담당하는 셈이다. 즉, 1시간에 25개를 검수한다는 얘기고 이는 다시 말해 하루에 힘겹게 달성할 수 있는 업무량이다.

또한 한 개의 콘텐츠를 판단하는데 드는 시간은 150초 이하가 된다. 그러나 감시 대상에는 10분 이상인 동영상도 포함돼 있어 실제로 각 투고의 모니터링에 걸리는 시간은 불과 몇 초 정도로 줄어든다.

이 때문에 모더레이터와 페이스북의 갈등과 소송도 빈발했다. 로이터통신 등 외신에 그동안 보도된 것만 해도 수 없이 많다. 모더레이터를 대량으로 정리한 후 건강에 이상이 생기고 정신적인 우울증 등을 호소하면서 모더레이터 운영회사 및 페이스북을 상대로 고소한 사건은 여전히 진행 중인 것으로 알려졌다.

결과적으로 페이스북은 연일 방대한 양의 콘텐츠를 부적절한 것이라고 판단해 게시물을 삭제하거나 계정 정지를 일삼는다. 모더레이터들이 인력으로 판단하는 콘텐츠는 사전에 AI(인공지능)의 필터링에 의해서 추출되지만 AI의 판단의 정확성은 낮다는 보고도 있다.

페이스북에서 모유 먹이는 방법 등을 교육하는 페이지를 운영하는 셰리 룩스라는 여성은 지금까지 여러 번 계정 정지 조치를 받아 왔지만, 부적절한 콘텐츠를 올린 경험은 전혀 없다고 단언한다.

이 문제를 해결하는 좋은 방법은 없을까. 뉴욕대 연구자들은 페이스북이 콘텐츠 감시를 외부에 아웃소싱하는 것을 포기하고 내부에서 수행하는 것이 효과적인 대책이 될 것이라고 말한다.

혹은 감시업무를 임금이 싼 개발도상국의 업자에게 아웃소싱하는 방법도 있지만 이 경우 작업하는 사람들의 정신 건강을 충분히 관리할 필요가 있다고 지적했다.

결국 모더레이터의 힘을 빌리지 않고 소셜 미디어를 운영하는 것은 쉽지 않다는 결론이다. 적절한 감시를 하지 않으면 아동 포르노나 네오 나치를 찬미하는 투고, 그로테스크한 장면 등 문제 많은 콘텐츠가 넘쳐나게 된다. 이 문제는 페이스북뿐 아니라 트위터와 유튜브, 인스타그램에도 존재한다.

물론 AI의 감시의 정도를 현재보다 높은 수준으로 높이는 것도 유효한 시책이 될 것이라는 지적이다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지