개인정보보호위원회가 인공지능(AI) 기술 도입에 따라 개인정보를 안전하게 보호할 수 있도록 AI 단계별 6대 가이드라인을 마련하고 있다. 급변하는 기술 환경에서 기존 개인정보보호법만으로는 안전한 개인정보 활용이나 AI 서비스 개발이 어려운 만큼 단계별 가이드라인을 제정해 법적 불확실성을 해소한다는 취지다.
10일 정부 등에 따르면 개인정보위는 이달 중으로 공개된 정보 처리 기준에 대한 가이드라인을 발표한다. 가이드라인에는 기업이 AI 기술·서비스 개발 과정에서 소셜네트워크서비스(SNS)나 블로그 등 공개된 정보를 학습·활용할 때 개인정보보호법에 저촉되지 않는 사용 기준에 관한 내용이 담길 예정이다. 개인정보위 관계자는 “기업들이 AI 기술 개발에 주저하지 않도록 법적 불확실성을 해소하기 위한 것”이라고 설명했다.
AI 가이드라인 제정은 개인정보위가 추진하고 있는 올해 주요 정책 중 하나다. 개인정보위는 올해 말까지 AI 단계별 6대 가이드라인을 제정할 계획이다. AI의 데이터 처리 과정은 기획 및 데이터 수집 단계를 거쳐 데이터 학습과 관련 서비스 개발로 이어진다. AI가 처리하는 데이터 유형이 복잡하기 때문에 개인정보보호법 상 모호한 분야에 대한 가이드라인을 제정해 불확실성을 최소화할 필요가 있다는 게 개인정보위의 판단이다. AI 가이드라인에는 공개된 정보 처리, 이미지·영상·음성 등 비정형 데이터에 대한 가명 처리 기법, 생체 인식 정보 이용 시 제한 기준, 비식별 효과가 높은 합성 데이터 생성·활용 기준, 이동형 영상기기로 발생할 수 있는 권리 침해 판단 기준, 데이터 처리 과정의 투명성 확보에 관한 내용이 담길 예정이다.
앞서 올 초 개인정보위는 의료·교통 등 7개 분야의 비정형 데이터 사용 기준에 대한 ‘가명정보 처리 가이드라인’ 개정안을 발표했다. 기존에 마련된 가이드라인은 정형 데이터에 대한 기준만 있기 때문에 비정형 데이터 특징을 반영한 사용 기준을 추가해 개인정보 유출을 최소화할 수 있도록 한 것이 핵심이다. 일례로 자율주행 시스템 개발 시 차량 탑승자나 차량 번호판을 개발자나 컴퓨터가 식별할 수 없는 수준으로 가려야 한다. 개인정보위 관계자는 “AI 서비스 운영 과정에서 개인 식별 위험성이나 프라이버시 침해 가능성이 높아지지 않는지 등을 지속적으로 모니터링할 것”이라고 설명했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >