“전 세계적으로 인공지능(AI)과 데이터의 중요성이 커지는 가운데 안전한 AI 시대를 열기 위해서는 보다 신뢰할 수 있는 관리 체계가 구축돼야 합니다.”
양청삼 개인정보보호위원회 개인정보정책국장은 28일 서울 중구 신라호텔에서 열린 ‘서울포럼 2025’의 특별 포럼 ‘더 안전한 AI 시대로’에 참석해 최근 본격적인 AI 시대가 도래함에 따라 중요성이 높아지고 있는 AI 윤리의 필요성을 강조했다. 양 국장은 “2022년 챗GPT가 처음 등장하고 만 3년이 안 됐는데 생성형 파운데이션 모델은 기존 클라이언트 서버 모델과 굉장히 달라 정책 마련에 어려움이 있다”며 “AI 학습에 필수적인 데이터, 특히 개인정보의 관리를 위해 데이터 처리 목적을 명확히 하고 원칙을 세우는 것이 중요하다”고 말했다. 개인정보위는 AI 데이터의 적법 처리 근거 확대와 사전 안전관리 체계 마련 등을 통해 기업들의 데이터 활용 여건 개선을 지원한다는 방침이다.
패널 토론에서 박완진 KT(030200) 책임감있는AI센터장은 “AI가 빠르게 변화하고 있다 보니 (정부에서) 이를 법제화하는 데도 시간이 많이 걸리고 (기업 차원의) 대응에도 어려움이 있다”며 “완벽한 법안을 만드는 것보다는 그때마다 AI 기술에 맞춰 가이드라인을 업데이트하는 것이 이상적”이라고 말했다.
AI 윤리가 자칫 기업들의 AI 혁신을 저해할 가능성이 있기 때문에 정부와 기업 간 합의점을 도출하는 것이 중요하다는 제언도 잇따랐다. 장준영 법무법인 세종 변호사는 “AI 산업에서 선두를 달리고 있는 미국은 정부 차원에서 규제보다는 기업들이 자발적으로 AI 안전성을 확보하는 것에 중점을 두고 있다”며 “기업들에 자율 규제를 맡기면서 매일 AI 윤리를 관리하고 개선해가는 것이 바람직하다”고 조언했다.
전 세계적으로 AI 산업 규모가 커지고 있는 만큼 해외 각국과 지속적인 논의가 필요하다는 조언도 나왔다. 김경훈 카카오(035720) AI 세이프티 리더는 “최근 유엔의 발표를 보면 에이전틱 AI 시대로 접어들면서 인간이 AI에 과의존하는 사고들이 빈번히 발생하고 있다”며 “AI에 대한 문제는 전 세계적으로 일어나고 있기 때문에 해외 각국과 파트너십을 맺고 글로벌 스탠더드를 맞춰가는 과정이 필요하다”고 설명했다. 박유현 싱가포르 DQ연구소 대표는 “사회적으로 디지털 리터러시(문해력)를 키우는 것이 안전한 AI 생태계를 만드는 데 도움이 된다”고 강조했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >