인공지능(AI)을 이용해 사진 속 여성을 나체로 합성해주는 텔레그램 대화방이 운영되고 있는 것으로 밝혀졌다. 지난 1년간 가짜 나체 사진이 유포된 피해 여성은 10만명이 넘는 것으로 전해졌다.
영국 BBC는 민간 정보업체 센시티가 최근 이와 같은 내용을 담은 보고서를 발간했다고 20일(현지시간) 전했다.
보고서에 따르면 이 텔레그램 대화방은 사람들이 여성의 사진을 전달하면 ‘딥페이크 봇’(딥페이크를 만드는 인공지능)이 옷을 삭제해주는 서비스를 제공한다. 딥페이크는 실존 인물의 얼굴이나 신체를 다른 인물과 합성한 편집물이다.
대화방에서는 사진을 받고 수 분 만에 합성을 완료하며, 비용도 청구하지 않았다.
지난해 7월부터 1년간 약 10만4,852명의 여성이 이 대화방을 통해 가짜 나체 사진이 유포됐다.
BBC는 몇몇 여성의 동의를 얻고 그들의 사진을 이 대화방에 제출해 실제로 편집물을 받았다. 다만 편집물이 사실적이지는 않았다고 설명했다.
‘P’라고 알려진 대화방 운영자는 “이 서비스는 오락물일 뿐이고 폭력 행위도 없다”며 “사진 퀄리티도 사실적이지 않아, 이를 이용해 누군가를 협박하려는 사람도 없을 것”이라고 주장했다.
이 서비스는 러시아 SNS 사이트인 VK에서 많이 광고되고, 이용자 대다수가 러시아 등 구소련 국가 출신이라고 보고서는 밝혔다.
/김진선기자 sestar@sedaily.com
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >