전체메뉴

검색
팝업창 닫기
이메일보내기

인공지능 피해, 법적 책임은 누가

설계자·소유주·인공지능 등 조속한 규범 정립 필요

독일 미국 등 해외 선진국들은 법률적 제도적 장치 마련

전문가들, “국내 환경에 맞는 한국형 모델 만들어야”

지난 4월서울 강남구 삼성동 코엑스에서 열린 ‘2017 한국전자제조산업전’에서 자동화 로봇이 작업을 하고 있다. /연합뉴스




의료분야는 국내에서 인공지능 도입이 활발한 대표적인 분야 중 하나다. 지난해 12월 가천대 길병원에서 국내 첫 서비스를 시작한 IBM의 인공지능(AI) 의료 서비스 ‘왓슨 포 온콜로지(왓슨)’는 불과 5개월 만에 부산대병원과 대전 건양대병원, 대구 계명대 동산병원과 가톨릭대 병원 등 총 다섯 곳에서 서비스되고 있다. 만약 왓슨이 오류로 환자의 진단에 실패한다면 진단 실패로 피해를 본 환자에 대한 책임은 왓슨을 설계한 IBM에게 있을까 아니면 왓슨을 도입한 병원에게 있을까.

이미 사람이 생명이 오가는 의료 분야에까지 활용되고 있는 인공지능이지만, 인공지능으로 사람의 생명과 신체, 재산권에 침해가 발생했을 때 이 책임을 누구에게 물을 것인가에 대해 아직 국내 법체계는 답을 내놓지 못하고 있다.

국내 학자들은 의료뿐 아니라 자율주행 등 모든 분야에 도입을 앞둔 인공지능을 위한 법제 도입이 조속히 이뤄져야 한다고 입을 모은다. 박혜경 충남대학교 사회학과 교수는 “인공지능이 활용되는 과정에서 등장할 것으로 예상되는 가장 큰 기술적 문제는 오작동”이라며 “의료적으로 활용될 경우 인간 의사와 인공지능 간의 판단 불일치, 인공지능의 오진과 오류가 발생한다면 이의 법적 책임을 둘러싼 공방을 피할 수 없는 만큼 이에 대한 세밀한 법제화가 필요하다”고 말했다.

하지만 인공지능의 자율성과 인간의 통제권을 어떻게 조화시킬 것인가에 대해서는 의견이 엇갈린다. 학계에서는 책임의 대상이 인공지능 알고리즘의 설계자가 되는지 인공지능의 소유자 또는 사용자가 되는지에 대한 논의가 진행되고 있다.

장동경 삼성융합의과학원 디지털헬스학과 교수는 “AI는 잘못된 정보 입력과 조작 과정에서의 오류 등으로 오작동할 가능성이 존재하지만, 사용자가 이를 제대로 인식할지 불투명하다”며 “AI가 성능과 임상적 유효성 검증이 이뤄진 의료기기라면 제조자와 사용자(의사)가, 비의료기기라면 사용자(의사)가 판단의 책임을 져야 한다”고 말했다.

최근 딥러닝의 등장으로 인공지능의 자율성이 확대되면서 인공지능 자체에 책임을 물어야 한다는 주장도 나온다. 이전까지 인공지능은 설계 단계에서 적용된 알고리즘을 통해 판단을 수행하지만, 딥러닝의 경우 알고리즘까지 스스로 학습한다.

이중원 서울시립대 철학과 교수는 “의사가 왓슨의 도움을 받아 의학적 진단을 내렸는데 의학적 오판에 따라 손실이 발생할 경우 책임의 분배문제가 당연히 발생할 수밖에 없다”며 왓슨과 같은 비인격적 행위자들에 적용하기 위한 책임의 개념이 필요하게 될 것”이라고 강조했다.



일각에서는 알고리즘에 대한 통제 가능성 및 제도화 방안을 구체적으로 명시해 알고리즘 책임성을 구현할 필요가 있다는 주장을 펼치고 있지만, 인공지능 분야를 선도하고 있는 구글과 같은 세계적인 기업조차 이 부분에 대한 명확한 답을 내놓지 못하고 있다.

자율성을 가진 인공지능에 현재 공장 자동화 기계 등에 적용되는 제조물책임법을 그대로 적용할 수 있는지도 논란거리다.

정채연 포항공대 인문사회학부 교수는 “소프트웨어를 제조물로 판단할지에 대해서는 아직 입장 차가 있다”며 “왓슨의 오류로 인한 의료사고의 경우 제조물책임법에만 의존하는 데는 한계가 있는 만큼 의료사고 책임 여부에 대해서는 윤리위원회를 통한 법제화가 필요하다”고 설명했다.

이 밖에도 왓슨을 비롯한 인공지능의 기반이 되는 빅데이터를 수집 ·분석 ·처리하는 과정에서 발생하는 개인정보의 보호 문제와 인공지능에 인간과 같이 ‘고의’, ‘과실’의 개념을 적용할 수 있는지에 대한 논의도 여전히 진행 중이다.

해외 여러 나라들은 인공지능을 규제할 수 있는 제도 마련을 서두르고 있다. 유럽연합(EU)은 지난 1월 인공지능 로봇을 ‘전자인간’으로 규정하면서 법적 지위를 부여한다고 선언했다. 로봇에게 시민권을 부여하면서 동시에 ‘인간을 위협해서는 안된다’는 법적 책임을 부여한 것이다. 2014년 5월 아베 신조 총리 주도로 ‘로봇혁명’ 추진 계획을 발표한 일본은 이와 동시에 법률적·제도적 정비 방안에 대한 연구를 구체적 액션플랜의 하나로 선정해 진행하고 있다. 일본 정부는 ‘로봇혁명 이니셔티브 협의회’를 중심으로 법적 과제 검토를 추진 중이다. 독일은 2013년 연방 법무부의 업무 범위를 넓혀 행정조직을 ‘연방 법무·소비자보호부’로 재편했다. 인공지능 로봇의 상용화를 앞두고 소비자 보호를 위한 제도적 정비를 함께 추진하겠다는 뜻이다.

국내에서는 앞서나가고 있는 해외 사례를 참고해 정부와 기업이 함께 ‘한국형 모델’을 만들어야 한다는 주장이 힘을 얻고 있다. IT 전문인 한 변호사는 “미국 등 선진국에서는 다국적 기업들이 자체 역할 설정에 나서면 정부가 발맞춰 규제·감독 등을 논의하고 있다”면서 “민관이 합동해 입법 대비에 나서야 한다”고 말했다. 기술 발전을 따라갈 것이 아니라 선도적으로 인공지능을 법률서비스에 접목시키는 ‘리걸테크(LegalTech)’ 개발에 주력해야 한다는 제언도 있다. /양사록기자 sarok@sedaily.com
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60