• 뉴스 듣기

  • 글자 크기

    글자 크기 설정

    • 보통

    • 크게

    • 아주 크게

  • 기사 공유

  • 북마크

  • 다크모드

  • 프린트

네이버 채널구독

다음 채널구독

고영향 AI 규제와 기본권 영향평가

민창욱 법무법인 지평 변호사

입력2026-02-07 10:00

수정2026-02-10 16:42

민창욱

민창욱

법무법인 지평 변호사

올해 1월부터 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(AI 기본법)이 시행됐다. 이 법은 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능시스템을 ‘고영향 인공지능’으로 정의하고, 기업에 위험 관리와 신뢰성 확보 의무를 부과한다. 기본적으로는 AI 산업 육성을 위한 지원법의 성격을 띠면서도, 세계적 표준인 ‘위험 기반 접근(Risk-Based Approach)’을 반영해 인권과 직결된 고위험 영역에 필요한 규제를 도입했다는 점에서 의의가 있다.

혁신의 도구인 AI를 규제의 틀에 가두는 것이 자칫 산업 발전을 저해할 수 있다는 비판도 일리가 있다. 다만 간과하지 말아야 할 지점은 고영향 AI가 인간의 존엄성을 침해하는 사례가 이미 현실화되었다는 사실이다. 네덜란드 세무 당국의 알고리즘이 이주민 가정을 부정수급자로 낙인찍어 가정을 파탄에 이르게 한 사건, 호주 정부의 자동화된 부채 회수 시스템이 취약계층의 생존권을 위협한 ‘로보데트(Robodebt)’ 사건, 그리고 미국 아이튜터(iTutor) 그룹의 채용 AI가 고령자를 자동 탈락시킨 연령 차별 사례 등은 AI의 기술적 오류가 헌법적 가치를 훼손할 수 있음을 보여준다.

이러한 사례들은 AI 리스크 관리에 대한 관점 전환을 요구한다. 흔히 기업들은 AI의 리스크를 데이터 품질, 개인정보 유출, 보안, 혹은 알고리즘의 편향성 정도로 국한해 인식한다. 그러나 2025년 유럽연합 기본권청(FRA)이 발표한 보고서는 이러한 기술적 시각을 넘어 ‘실질적 기본권’의 관점으로 인식을 확장할 것을 역설한다. 가령 채용 AI의 불공정성은 데이터 편향이나 인종 차별의 문제를 넘어 헌법상 보장된 ‘직업 선택의 자유’와 ‘근로의 권리’를 침해하는 중대한 사안이다. 설명 불가능한 알고리즘에 의한 탈락은 개인의 사회적 이동성을 차단하고 계층을 고착화할 위험을 내포한다. 결국 고영향 AI에 대한 평가는 “데이터 수집·분석에 오류가 있는가”를 넘어 “이 기술이 헌법적 가치를 훼손하지 않는가”를 묻는 과정으로 나아가야 한다.

일각에서는 ‘고영향 AI’ 개념이 추상적이라 현장의 혼란을 줄 수 있다고 우려한다. 다만 국내외 AI법과 관련 보고서들이 제시하듯, 기술 자체의 성능보다 ‘의도된 목적’과 ‘배포된 맥락’을 살피면 그 기준은 좀 더 선명해진다. 동일한 안면인식 기술이라도 스마트폰 잠금 해제용으로 쓰이면 개인의 편의를 위한 저위험 기술이지만, 공공장소에서 불특정 다수를 실시간으로 감시하는 용도로 쓰이면 심각한 사생활 침해와 집회의 자유 위축을 초래할 수 있는 고영향 AI가 된다. 따라서 기업은 개발 단계의 기술적 검증과 별개로, 사용·배포 단계에서 이 기술이 “어떤 환경에서, 누구에게, 어떤 목적으로 사용될 때” 기본권을 침해할 소지가 있는지 예측하고 대응할 수 있어야 한다.

AI 기본법 제정은 우리 기업에 새로운 숙제를 던졌다. 정부 역시 가이드라인을 통해 판단 기준을 제시하고 있지만, 핵심은 기술이 사회 속에서 작동할 때 발생할 수 있는 파장을 미리 읽어내는 ‘해석력’이다. 이제 기업은 AI 제품이나 서비스가 특정 집단을 차별하거나 소외시킬 가능성은 없는지를 ‘영향받는 자’의 관점에서 시나리오를 검토하고, 문제 발생 시 설명과 구제가 가능한 절차를 마련해 두어야 한다. 기술적 스펙을 넘어 사회적 맥락과 기본권을 읽어내는 기업만이 다가올 AI 규제의 파고를 넘어 글로벌 시장의 신뢰를 얻을 수 있을 것이다.

이 기사를 추천합니다.

ⓒ 서울경제신문, 무단 전재-재배포, AI 학습 및 활용 금지

다음
이전
다음
이전