전체메뉴

검색
팝업창 닫기
이메일보내기

[FORTUNE 500]페이스북의 정상화 팀

▲페이스북 프로파일: 순위 76위, 매출 407억 달러, 이익 159억 달러, 종업원 수 2만 5,105명, 총 주주 수익률(2012~2017년 연 평균) 31.4%

소셜 네트워크 기업 페이스북이 최근 수천 명의 관리자를 고용하고, 최신 기술인 인공지능을 활용하고 있다. 혐오 발언 및 범죄 행위를 근절하고, 사용자들의 신뢰를 회복하기 위해서다. 수십억 명의 사용자들을 좀 더 면밀하게 연구하겠다는 뜻이기도 하다. BY MICHALL EV-RAM

지난 5월 1일 오전, 페이스북 사용자들은 피드 업데이트 때마다 호기심을 자아내는 질문 창을 20분간 마주했다. ‘본 게시물에 혐오 발언(hate speech)이 포함되어 있습니까?’라는 질문이었다. ‘예(yes)’와 ‘아니오(no)’ 답변 버튼도 있었다. ‘예’를 클릭하면, 다음 질문이 적힌 알림 창이 나타났다. ‘아니오’를 클릭하면 알림 창이 즉시 사라졌다. 이전에도 소셜 네트워크 사용자들은 문제가 될 만한 포스팅을 신고할 수 있었다. 하지만 이렇게 직접적인 질문은 본 적이 없었을 것이다. 더 놀라운 점은, 포스팅마다 이 알림 창이 나타났다는 것이었다. 복슬복슬한 새끼 고양이나 호텔 조식 사진에도 같은 질문 창이 튀어나왔다.

순식간에 인터넷상에 소문이 퍼져나갔다. 한 트위터 사용자는 “뉴욕 메츠 팬들이 드디어 페이스북에 게시한 포스팅을 ’혐오 발언‘으로 신고할 수 있게 됐다”는 농담을 올렸다. 더 황당한 일은 페이스북의 연례 개발자 회의 F8이 열린 5월 1일, CEO 마크 저커버그 Mark Zuckerberg가 자신의 계정에 ’개봉박두(coming soon)‘라고 업데이트한 피드에도 같은 질문 창이 떴다는 점이었다. 페이스북의 안전 보안팀 부사장 가이 로젠 Guy Rosen은 이날 오후 포춘과의 인터뷰에서 “저커버그의 포스팅에까지 ’혐오 발언입니까?‘라는 질문이 나타났다”고 설명했다.

혐오 발언 여부를 묻는 이 질문 기능은 일종의 버그였다. 로젠은 “성급하게 실시한 ’준비되지 않은 실험‘이었다”고 털어놓았다. 이 실수는 이미 공공연하게 로젠의 탓으로 인식되고 있다. 그러나 그는 이 ’기술‘에 대해 변명을 늘어놓지 않았다. 로젠은 “질문 기능을 현명하고 신중하게 사용해 피드백들을 도출하고 수집하면, 회사가 강력한 무기를 갖게 될 것”이라고 강조했다. 그에 따르면, 페이스북은 이 무기들을 활용해 플랫폼 상에 만연한 고의적인 괴롭힘, 공격적이고 불법적인 행위들에 맞서 싸울 생각이다. 이는 인공지능 시스템이 고의적인 거짓 신고와 실제 이용 수칙을 위반한 포스팅을 구분해내는 데에도 도움이 될 것이다.

저커버그가 지난 4월 10일 미 상원청문회에 출석해 증언을 하고 있다.




돌이켜 보면, 5월 1일 저커버그가 ’사람들의 안전을 확보하기 위해 현재 실시하는 조치들을 더 많이 공유할 것‘이라고 포스팅한 건 아이러니하게도 적절한 것이었다.

페이스북의 포스팅 관리를 반대하는 사람들은 표현의 자유 절대론자들 뿐일 것이다. 22억 명의 사용자들을 가진 페이스북의 콘텐츠는 타의추종을 불허할 정도로 세계 곳곳으로 퍼져나간다. 선거 조작용 ’가짜 뉴스‘부터 인종차별주의자나 테러리스트들의 선전 방송, 페이스북 라이브 Facebook Live를 통해 생중계 되는 공격적인 영상이나 자살 방송에 이르기까지, 엄청난 양의 유해 콘텐츠들이 존재한다. 그로 인해 미국을 포함한 전 세계 비판자들로부터 전례 없이 많은 항의가 빗발치고 있다. 이들은 페이스북의 자체 검열 강화나 규제 당국의 페이스북 검열을 촉구하고 있다.

최근 이 소셜 미디어 거물은 다수의 위반 사례를 공개했다. 5월 중순, 페이스북은 올 1분기에만 8억3,700만 건에 달하는 스팸과 허위 광고, 사기, 악성 링크 또는 짝퉁 판매의 포스팅을 적발했다. 허위 계정 또한 5억 8,300만 개에 이르렀다고 발표했다. 이 계정들은 모두 비활성화 처리됐다. 추가로 2,100만 개의 ‘신체 노출 및 성행위 규정 위반’, 3,400만 개의 ‘폭력 묘사’, 2,500만 개의 혐오 발언이 있었다. ISIS와 알카에다, 또는 관련 테러 조직의 선전 방송 콘텐츠도 1,900만 개에 달했다. 페이스북의 사명은 전 세계를 더욱 더 가깝게 이어주는 것이었지, 이런 방식의 ‘긴밀함’을 의도했던 건 아니었다.

UCLA 교육 및 정보 연구 대학원에서 소셜미디어를 연구하는 세라 로버츠 Sarah Roberts 조교수는 “페이스북의 비즈니스 모델에서도 일부 원인을 찾을 수 있다”고 설명했다. 그녀는 “회사가 망가지지 않고, 사용자들의 자발적 참여를 독려할 수 있는 유일한 방법은 이들이 무료로 콘텐츠를 올리도록 하는 것이다. 그러나 세계 곳곳에 있는 미지의 사용자들에게 본인들만의 방식으로 자신을 표현하라고 유도한다면, 온갖 형태의 인간 군상들을 마주할 수밖에 없다”고 말했다.

물론 페이스북이 곤경을 겪는 이유는 표현의 방법 때문만은 아니다. 사실 케임브리지 애널리티카 Cambridge Analytica 스캔들이 직접적인 원인이다. 제3의 개발업체가 8,700만 페이스북 사용자들의 데이터를 수집해 도널드 트럼프와 다른 후보자들이 2016년 대선에 활용하도록 넘긴 사건이다. 저커버그는 이 개인정보 침해 문제로 의회 청문회에서 고통스러운 이틀을 보냈다. 일부 입법자들은 가짜 뉴스나 마약류 판매 광고 등도 거론하며, 저커버그를 더 많이 압박하는 데 힘을 쏟았다. 청문회에서 그는 “페이스북 상의 콘텐츠에 대해 회사에 책임이 있다”고 발언했다. 인터넷 기업 차원에선 놀라운 인정이었다. 지난 수년간, 페이스북은 ‘플랫폼을 제공할 뿐, 네트워크상의 발언과 행위 또는 판매 제품에 대한 비판과는 아무 관계가 없다’고 주장해왔기 때문이다.

페이스북은 부적절한 콘텐츠를 적발하고 삭제하는 관리자와 기타 ‘안전 및 보안’ 인력 수를 연말까지 2만 여명으로 두 배 이상 늘릴 계획이다. 이 인원들이 방대한 네트워크상에서 수십억 개의 비디오, 채팅 및 기타 포스팅을 모두 검열할 수 없기 때문에, 페이스북은 이들을 보조할 인공지능 기술도 함께 개발하고 있다.

인공지능 전문가 로젠은 페이스북에서 혐오 발언, 불법 사진 및 기타 불법 행동을 적발하는 기술 개발 업무를 맡고 있다.


올 봄, 포춘은 페이스북의 캘리포니아 멘로 파크Menlo Park 본사에서 회사 정책이 어떻게 시행될지 몇 주간 살펴보는 시간을 가졌다. 그 결과 정책의 모순점이 명백하게 드러났다: 관리자나 인공지능 시스템이 더 효과적으로 업무를 하려면, 개인정보를 침해할 수밖에 없을 것이란 점이었다. 관리자들은 사용자의 사진, 코멘트 및 업데이트를 더 면밀하게 살펴보게 될 것이다. 패턴 인식 능력을 높이기 위해, 인공지능 툴도 사용자들의 포스팅을 꼼꼼하게 살펴볼 것이다. 다시 말해 사용자의 ‘비공개’ 메시지 조차, 페이스북의 인공지능 시스템이 이미 훑어보고 있다는 얘기다. 특히 ‘고 위험’ 포스팅을 포착하는 과정에서, 인간과 인공지능 시스템은 모두 사용자의 과거 기록을 들여다볼 수 있다.

로버츠는 “이런 감시 체계는 양날의 검과 같다”고 말했다. 비용 역시 만만치 않다. 페이스북은 2018년 총비용이 2017년 대비 45%에서 60%까지 오를 것으로 예상하고 있다. 관리자 및 인공지능 감시 시스템 에 비용이 들어가기 때문이다(회사는 이 감시 비용을 별도로 집계하진 않고 있다).

물론 그 정도는 페이스북이 충분히 감당할 수 있는 액수다. 올해 포춘 500대 기업에서 76위를 차지한 페이스북은 최근의 논란에도 불구하고, 재정적으로 심각한 타격을 입지는 않았다. 1분기 매출은 전년 대비 49%나 올라 120억 달러로 상승했다. 케임브리지 애널리티카 스캔들 이후 시총이 1,340억 달러나 증발됐지만, 이젠 주가가 예전 수준을 회복했다. 페이스북을 오랫동안 추적해 온 카우언 Cowen의 수석 연구 애널리스트 존 블랙리지 John Blackledge는 “‘감시 체계’가 기업 마진에 실질적으로 영향을 미칠 수 있도록 집중적인 투자를 해야 한다”고 분석했다.

그 부분은 페이스북 입장에서도 투자에 인색할 부문이 아니다. 까다로운 사용자 몇 명을 잃는다고, 기업 경영에 타격을 입지는 않을 것이다. 그러나 매출의 98%를 차지하는 광고주들이 떠난다면, 회사는 큰 곤경에 빠질 수 있다. 현재 페이스북은 사업상 큰 타격을 입지는 않았다고 주장하고 있다. 그러나 일부 광고주들은 케임브리지 애널리티카 스캔들 이전부터 가짜 뉴스나 범죄 행위의 존재에 대한 우려의 목소리를 높이고 있었다. 정책 강화를 통해 더욱 안전한 사용자 환경을 구축할 순 있겠지만, 그 감시에는 큰 대가가 따르기 마련이다. 페이스북이 개인 데이터를 포함해 엄청난 양의 정보를 수집·검토하려 한다면, 사용자들은 기업이 자신의 포스팅을 자세히 들여다보도록 그냥 놔둘 것인가? 로젠은 “우리는 사용자의 프라이버시를 매우 신중하게 생각하고 있다. 그것을 염두에 두고 시스템을 구축하고 있다”고 강조했다. 그러나 사용자들이 페이스북의 ’정화 노력‘에 대해 더 자세히 알게 되면 될수록, 혼란은 가중될 것이다.

어느 봄날 아침, 30명 이상의 임원들이 멘로 파크에 있는 페이스북 23번 건물에 모여 ’어떻게 하면 네트워크가 혐오 발언을 구별할 수 있을 것인가‘ 같은 주제를 놓고 알찬 논의를 진행했다. 2주에 한 번씩 이런 논의가 이뤄지고 있다. 어떤 행동이 ’무례함‘과 ’용인할 수 없음‘ 사이의 선을 넘는 것인지, 회사의 콘텐츠 기준 포럼(Content Standards Forum) 관련 규정을 업데이트하기 위해 마련된 논의의 장이다.

페이스북은 모니카 비케르트 Monika Bickert에게 포럼을 진행해달라고 요청했다. 검사 출신인 비케르트는 5년 전 기업의 첫 보안 팀 카운슬러로 합류했다. 그녀는 로젠과의 긴밀한 협업을 통해, 회사가 자신의 팀이 만든 정책들을 시행할 장치들을 마련하도록 역할을 했다. 두 사람은 또 회사의 콘텐츠 검열원 증원 등을 관장하는 글로벌 운영 부사장 저스틴 오소프스키 Justin Osofsky와 협력했다. 페이스북의 악성 포스팅을 화재에 비유한다면, 이 세 사람은 화재를 진압하기 위해 물 양동이를 나르는 버킷 브리게이드 bucket brigade인 셈이다.

키가 크고, 탄탄한 몸매와 붉은 머리를 가진 비케르트는 소셜 네트워크와는 어울리지 않는 직설적인 언사를 쏟아내는 인물이다. 성범죄자와 참수 영상 같은 페이스북의 불편한 주제들도 거침없이 이야기한다. 이상주의적 임원들과는 달리, 그녀는 모든 사용자가 페이스북을 선의의 목적으로 사용하지 않는다는 점에 그리 놀라지 않는다. 그녀는 “우리가 다루는 남용 사례들은 실생활에서 검사들이 직면하는 사건들과 마찬가지”라고 말했다.

비케르트의 팀에는 주제 전문가(Subject Matter Expert)와 정책통들도 있다. 이들의 전문 분야는 인상적이면서도 다소 음침하다. 전직 반 테러 전문가, 강간 위기 카운슬러, 혐오집단 연구가 등을 생각해보라. 이들은 협력을 통해 실제 세계에서 이미 흔히 접했던 극악 행위들을 적발하고 근절할 수 있는 시행 가능한 정책들을 만들고 있다. 동시에 플랫폼이 표현의 자유를 지키는 보루 역할을 할 수 있도록 하고 있다. 비케르트는 “페이스북이 안전한 플랫폼이 아니라면, 사람들이 사용을 꺼리게 될 것”이라고 역설했다.

그러나 글로벌 네트워크 상에서 ’부적절성‘을 정의하기란 매우 어렵다. 혐오 발언을 생각해보라. 특정 단어는 그 의도를 파악하기가 매우 까다롭다: 일례로 포르투갈의 특정 표현이 브라질에선 인종차별주의적 욕설이지만, 포르투갈에선 아닐 수도 있다. 또한 언어는 유동적이다: 러시아와 우크라이나 사람들은 상대방을 묘사하는 특정 표현을 사용해왔다. 그러나 최근 몇 년 간 두 국가 간에 충돌이 있었고, 그로 인해 일부 단어들이 그 전보다 더 혐오스러운 의미를 갖게 됐다.



보다 더 투명한 규칙을 세우기 위해 페이스북은 지난 4월, 27페이지에 달하는 ’커뮤니티 기준‘을 처음 공개했다. 이 규정들은 자극적인 콘텐츠를 매우 무미건조한 어조로 설명하고 있다(예를 들면 ’합의 없는 성적 접촉과 잔혹성, 시체 성애 또는 수간을 어떠한 형태로든 묘사 또는 옹호하는 콘텐츠를 포스팅하지 말 것‘ 등이 있다). 그 외 놀라운 점은 페이스북에서 금지하지 않는 콘텐츠다. 예컨대 폭발물을 만드는 방법의 경우, 콘텐츠가 ’과학적 또는 교육적 목적‘으로 제작된 경우 허용이 된다. 두 번 이상 살인을 저지른 사람은 페이스북을 이용할 수 없다. 그러나 한 차례 살인을 저지른 사람의 경우, 포스팅이 살인에 대한 것이 아니라면 ’좋아요‘ 왕국에서 추방당하진 않는다(사람들이 사고로, 혹은 정당방위로 한 번 살인을 저지를 수도 있지만, 다수를 살해한 사람의 경우, 의도적인 살인이었을 확률이 높기 때문이라는 게 그 이유다. 반면, 어떤 종류의 범죄든 이를 홍보하거나 독려하는 건 금지된다).

비케르트는 이런 기준에 대해 “모든 사람이 동의하는 정의는 아닐 것이다. 그래도 최소한 명확한 정의는 내리고 싶었다”고 설명했다. 페이스북은 향후 몇 달 동안 명확성과 관련해 다양한 ‘상호소통’ 회의를 개최할 예정이다. 그것을 통해 대중과 언론으로부터 규정에 관한 피드백을 받고자 한다. 그러나 궁극적으로 어떤 것을 허용하고 금지할 것인지는 기업의 결정에 달려있다. 생사가 걸린 매우 중대한 문제라 하더라도 말이다.

작년 봄, 로젠은 엔지니어들로 구성된 팀을 구성해 ’제재‘ 업무를 시작했다. 팀원들은 만사를 제쳐놓고 문제 해결에 매달렸다. 실제로 매우 심각한 문제였다: 사용자들은 이제 막 선보인 비디오 스트리밍 서비스 페이스북 라이브 Facebook Live를 활용해 자살 의도를 발표하거나, 실제로 자살 장면을 생방송하기도 했다.

모니카 비케르트는 페이스북에 합류하기 전 10년 간 검사로 재직했다. 현재 그녀는 제재 기준을 어떻게 세울 것인지를 관장하고 있다.


검은색 티셔츠와 청바지, 회색 슬립온 slip-on/*역주: 끈을 매지 않고 신을 수 있는 신발/ 차림을 한 로젠은 전형적인 실리콘밸리 기술자처럼 보인다. 무심한 듯한 그의 태도는 12명 남짓으로 구성된 그의 제재 팀이 다루는 페이스북 라이브 상의 비극적인 문제가 얼마나 시급한지를 잠시 잊게 만들기도 한다. 로젠은 지난해 제재 팀을 꾸렸던 같은 회의실 의자에 앉아 “이미 추진하고 있던 업무에 박차를 가하는 것이 목적”이라고 설명했다. 그의 팀은 지난 2개월 간 작업을 벌여 어떻게 콘텐츠를 감시할 것인지에 관한 사례 연구를 도출했다. 그 작업은 이 같은 노력이 얼마나 강력한 영향력을 발휘할 것인지를 시사하고 있다.

페이스북은 자체 네트워크 상에서 자살 시도 관련 수치를 공개하지 않는다. 그러나 좀 더 광범위한 데이터를 통하면, 문제의 범위를 가늠할 수 있다. 미국에선 4만5,000명이 매년 자살을 하고, 130만 명이 자살을 시도한다. 미국 인구는 3억 2,500만 명이다. 페이스북 사용자는 22억명을 웃돈다. 자살에 대한 경각심을 전파하는 비영리단체 세이브 SAVE의 상임이사 댄 리덴버그 Dan Reidenberg는 “페이스북은 이 문제를 엄청나게 진지하게 다뤄야한다”고 촉구했다.

페이스북은 제재 도중, 그리고 그 후에 리덴버그의 지원을 받아 필요한 이들에게 도움을 줄 수 있는 정책을 고안해냈다. 동시에 플랫폼 상에서 다수의 충격적인- ‘전염성’이 있거나 모방할 수 있는-콘텐츠를 줄여나가고 있다. 기업 정책은 이제 ‘실시간으로 자살을 묘사하는 콘텐츠를 포함해 자살 또는 자해행위를 장려할 수 있는’ 콘텐츠를 삭제하도록 규정하고 있다. 그러나 ‘자해 중계영상은 사랑하는 사람과 규제 당국이 도움을 줄 수 있기 때문에, 삭제하지 말 것’을 권고하고 있다.

이를 구분하기가 매우 어렵기 때문에 페이스북은 3,000여 명의 관리자를 고용했다. 역대 최대 규모로 직원 수를 늘린 이유는 위험에 처한 사용자의 비디오를 판별해내기 위해서다. 관리자들을 지원하기 위해, 엔지니어들은 향상된 검토 툴을 개발했다. 예컨대 검열원들은 ‘스피드 컨트롤’을 이용해 라이브 영상을 쉽게 구간 이동할 수 있고, 지정 영상 자동 표시, 영상 구독자의 반응이 급증하는 비디오 구간-방송하는 사람이 자해할 수도 있음을 나타내는 표시-를 보여주는 ‘적외선 열지도’ 등도 활용할 수 있다.

페이스북은 대부분의 관리자가 지속적인 교육을 받고 있다고 주장한다. 하지만 그들을 교육할 때 사용하고 있는 자료를 포춘에 공개하진 않았다(처방전 약물이나 화기 같은 ‘규제 물품’에 관한 콘텐츠에 어떻게 대처하는지 등이 거기에 포함된다). 교육은 놀라울 정도로 광범위하다. 훈련과 최신기술 툴로 중무장한다 해도, 자살 가능성이 있는 상황을 주시하는 사람들은 감정적으로 강도가 높고 영향을 쉽게 받는 업무를 맡게 된다. 이들이 이 힘든 업무를 견딜 수 있느냐 여부는 여전히 해결해야 할 문제다. 콘텐츠 검열원을 고용하는 트위터나 유튜브 같은 다른 IT기업들처럼, 페이스북은 관리자들의 자격요건이나 이들의 보수에 대해 공개하기를 꺼리고 있다. 회사는 모든 검열원들이 심리 상담을 받고 있다고 밝혔다. 육아 휴직 중인 오소프스키는 포춘과의 전화 인터뷰에서 “현실적으로 고된 업무”라고 토로했다.

그렇기 때문에 기술의 역할이 더 중요해진다. 페이스북은 이제 자살 관련 포스팅을 탐지할 수 있는 인공지능 시스템을 배치하고 있다. 소프트웨어는 ‘괜찮아?’와 같은 문구를 검색해 인간 검열원들에게 경보를 보내고, 위험에 처한 것으로 보이는 사용자에게 자사의 자원을 활용하고 있다. 사용자의 친구가 도움을 주도록 알람을 보낼 수도 있다. 어느 지점에선, 채팅로봇이 걱정 메시지를 보내고, 자동으로 긴급구조원에게 연락을 취하는 등 더 적극적으로 대응할 수도 있다.

로젠은 “지난해 제재 조치를 시행한 이후 1,000건 이상의 자살 위험 사례를 긴급구조자에게 알릴 수 있었다”고 설명했다. 그렇게 생명을 구하는 일은 엄청난 성과이며, 소프트웨어에 대한 의존도가 높아질수록, 더 많은 진전이 있을 것이다. 리덴버그가 인공지능 툴을 낙관적으로 전망하는 이유다. 그는 “기술이 세계가 직면한 자살 위험을 줄여줄 수 있는 희망이 됐다”면서도 “동시에 그건 미지의 영역이기도 하다”라고 시인했다.

글로벌 차원에서 위험을 평가하고, 포스팅을 해석하는 건 사실상 전례 없는 일이다. 이를 효율적으로 수행하기 위해, 페이스북은 더 많은 사용자 데이터를 평가하고 분석할 것이다.

인공지능은 이미 빠른 지름길을 제시하고 있다. 짧은 시간 내에 많은 정보를 검토할 수 있기 때문이다. 성적 착취나 불법 노출과 관련, 소프트웨어는 이미 유두 노출을 스스로 탐지할 수 있다. 어떻게 인공지능 도구가 학습을 할 수 있을까? 수 많은 사진, 즉 사용자들의 사진을 연구하고, 패턴을 찾고 있기 때문이다. 그러나 기술이 유륜을 식별할 수 있다 해도, 그것이 모유 수유 사진처럼 허용되는 신체 부위의 묘사인지, 금지 1순위 콘텐츠인 ’보복성 포르노‘인지를 구분할 순 없을 것이다.

기술이 구분하지 못하는 작은 틈은 인간이 감시를 통해 채우고 있다. 더 많은 정보와 맥락을 통해, 더욱 더 정보에 기반을 둔 의사 결정을 할 수 있다. 페이스북 콘텐츠 관리자들은 검열원들이 지금 당장 문제와 관련 없는 데이터에는 접근하지 않는다는 점을 강조했다. 로젠은 “콘텐츠 검열원들이 사용하는 도구는 검토대상이 되는 콘텐츠 유형에 기반해 제한적인 검토만을 진행한다”고 설명했다. 이 말이 함의하는 바는 페이스북이 혐오 발언을 삭제하거나 도움을 제공하기 위해 사용자를 사사건건 감시할 필요는 없다는 것이다.

그러나 그 경계를 어떻게 그을 것인가. 과연 어느 정도가 충분한 콘텐츠의 양인가? 페이스북이 앞으로 막후에서 결정을 내려야 할 문제다. 우리가 이 선택적 거래를 수용하는 것과 관계 없이, 안전을 대가로 페이스북이 우리 데이터에 더욱 쉽게 접근하도록 허용하는 건 ’네/아니요‘로 단순히 구분 짓기엔 너무나도 복잡한 문제다.

▲내 데이터 어디 있을까?

광고주들을 지원하기 위해 사용자 데이터를 활용하는 건 여전히 페이스북 비즈니스 모델의 주요 전략이다. 그러나 그 부분에 큰 변화가 예상된다.

3월 중순 이후 많은 일이 벌어졌다. 이미 파산한 영국의 데이터 기업 케임브리지 애널리티카가 어떻게 부당하게 사용자 정보를 습득하고, 8,700만 페이스북 사용자를 대상으로 유권자 프로필을 작성했는지(그리고 대선 후보자들에게 어떻게 데이터를 판매했는지)에 대한 기사들이 쏟아졌다. 대중들의 항의가 빗발쳤고, CEO 마크 저커버그가 의원들과 사용자 그리고 언론 앞에서 ’사과 투어‘를 하기에 이르렀다.

이후 페이스북은 수백만 명의 사용자들에게 정보가 유출됐음을 고지하기 시작했다. 이후 제 3의 개발자들이 활용할 수 있는 데이터 범주에 대한 규제를 강화했고, 플랫폼에서 방대한 양의 데이터에 접근하는 모든 앱에 대한 포괄적인 조사를 시작했다. 다른 잠재적 정보 남용을 식별하기 위해서였다(5월 14일 발표한 최근 조사 내용에 따르면, 수천 개의 앱을 조사했고 이들 중 약 200개는 페이스북 플랫폼에 접근 정지 조치를 당했다). 5월 말까지 페이스북과 기타 인터넷 기업들은 개인정보보호 규정(GDPR)을 준수해야 한다. GDPR은 EU 시민의 개인정보 보호를 위해 새로 채택된 규정으로, 사용자의 광범위한 통제권한 보장을 의무화하고 있다. 사용자들은 개인 정보에 접근하거나 삭제할 수 있고, 집단 소송 형태의 민원을 제출할 수 있으며, 자신의 데이터를 다운로드해 경쟁사에 전송할 수도 있다. GDPR은 기업 입장에선 매우 고통스런 방식으로 기준이 대폭 강화되기도 했다: 규제를 어긴 기업의 경우, 연 매출의 4%에 해당하는 금액을 벌금으로 내야 한다. 페이스북의 경우, 단 한번의 위반으로도 16억 달러 벌금을 물어야 한다는 얘기다.

번역 김아름 rlatjsqls78@naver.com
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60