전체메뉴

검색
팝업창 닫기
이메일보내기

"사진 속 여성, 옷 벗겨드립니다" 피해자만 10만…텔레그램 대화방 버젓이 운영

/사진=이미지투데이




인공지능(AI)을 이용해 사진 속 여성을 나체로 합성해주는 텔레그램 대화방이 운영되고 있는 것으로 밝혀졌다. 지난 1년간 가짜 나체 사진이 유포된 피해 여성은 10만명이 넘는 것으로 전해졌다.

영국 BBC는 민간 정보업체 센시티가 최근 이와 같은 내용을 담은 보고서를 발간했다고 20일(현지시간) 전했다.

보고서에 따르면 이 텔레그램 대화방은 사람들이 여성의 사진을 전달하면 ‘딥페이크 봇’(딥페이크를 만드는 인공지능)이 옷을 삭제해주는 서비스를 제공한다. 딥페이크는 실존 인물의 얼굴이나 신체를 다른 인물과 합성한 편집물이다.

대화방에서는 사진을 받고 수 분 만에 합성을 완료하며, 비용도 청구하지 않았다.

지난해 7월부터 1년간 약 10만4,852명의 여성이 이 대화방을 통해 가짜 나체 사진이 유포됐다.



BBC는 몇몇 여성의 동의를 얻고 그들의 사진을 이 대화방에 제출해 실제로 편집물을 받았다. 다만 편집물이 사실적이지는 않았다고 설명했다.

‘P’라고 알려진 대화방 운영자는 “이 서비스는 오락물일 뿐이고 폭력 행위도 없다”며 “사진 퀄리티도 사실적이지 않아, 이를 이용해 누군가를 협박하려는 사람도 없을 것”이라고 주장했다.

이 서비스는 러시아 SNS 사이트인 VK에서 많이 광고되고, 이용자 대다수가 러시아 등 구소련 국가 출신이라고 보고서는 밝혔다.

/김진선기자 sestar@sedaily.com
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서경 마켓시그널

헬로홈즈

미미상인