전체메뉴

검색
팝업창 닫기
이메일보내기

인공지능 윤리 규범, 더 이상 미룰 수 없다

FORTUNE'S EXPERT | 안병익의 ‘스마트 라이프'

이 기사는 포춘코리아 2017년 4월호에 실린 기사입니다.


승객 10명을 태운 버스가 고속으로 달리던 중에 갑자기 초등학생 2명이 차로에 뛰어들었다고 가정해보자. 버스가 급정거를 하면 뛰어든 초등학생 2명이 죽고, 우측으로 방향을 틀면 길가에 있던 1명의 다른 보행자가 죽는다. 그리고 만약 좌측으로 방향을 틀면 절벽으로 떨어져 버스에 탄 승객이 모두 죽는다. 이 상황에서 당신이라면 과연 어떤 판단을 내릴 것인가? 이는 자율주행 자동차, 나아가 인공지능(AI)의 윤리에 관한 문제다.








최근 들어 AI에 대한 관심이 크게 높아진 가운데 점차 AI 윤리 문제가 현실화할 것으로 전망되고 있다. 이런 윤리적 문제는 AI 디스토피아 논란을 불러일으키고 있다. 인간을 위해 만든 AI 비서, 로봇, 자율주행차, 로보어드바이저, 살상무기 등은 오작동이나 판단 실수 같은 문제를 일으킬 수 있다. AI가 인간을 지배하는 영화 ‘트랜센던스’나 ‘터미네이터’의 줄거리처럼 미래의 공포로부터 인간을 어떻게 보호할지에 대한 논의도 필요하다.

미국과 유럽, 일본 등은 이미 AI의 윤리적 방안을 준비 중이다. 유럽 의회는 AI 로봇을 ‘전자인간’으로 규정하고 사람과 동등하게 세금을 부과하는 방안을 마련할 것을 공언했다. 최근 일본 인공지능학회는 AI에 대한 윤리지침을 승인했다. AI가 사회 구성원에 준하기 위해서는 학회 회원과 동등한 윤리지침을 준수해야 한다는 규정이다. 미국과 유럽 등지에서도 AI가 지켜야 할 윤리를 만드는 방안을 연구 중이다. AI에 윤리적 책임을 지울 수 있는지를 검토하고 법적 책임을 져야 할 상황에서의 판단 기준을 두고 논의가 한창이다.

윤리학자들이 가장 우려하는 AI 분야는 자율살상무기(LAWS·Lethal Autonomous Weapons Systems)다. 최근 유엔의 특정재래식무기금지협약(CCW)에서 이 문제를 의제로 다루기 시작했다. 급속도로 발전하고 있는 AI 기술로 자율살상 로봇 생산 가능성이 높아지면서 논란은 심화하고 있다.

자율살상무기는 인간의 개입 없이 사전에 입력된 프로그램에 따라 독립적으로 전투를 수행하는 기계다. 지난해 12월 8일 러시아는 남부 다게스탄에서 IS핵심 조직원 러스탐 아셀도르프를 킬러 로봇으로 사살했다. 작은 장갑차 모양의 킬러 로봇을 이용해 은신처로 접근, 출입문을 폭파하고 내부로 진입하여 사살 작전을 수행했다. 또 미국 국방부는 지난해 AI 드론을 공개했다. 이 드론은 스스로 장애물을 피하고 적과 아군을 구분하여 공격할 수 있다. 보스턴다이내믹스는 두 다리로 걷는 인간형 로봇 ‘아틀라스’를 개발했는데, 아틀라스에 무기만 탑재한다면 로봇 병사가 되어 인간을 공격할 수도 있을 것이다.

킬러 로봇은 국제 인권 기준을 피해 인간을 살해할 수 있다는 측면에서 논란의 대상이 되고 있다. 교전 중일 때 인간 병사는 상황에 따라 적군을 사살하지 않고 포로로 잡을 수 있지만, 킬러 로봇은 무조건 사살한다는 것이다. 킬러 로봇은 각종 행동지침이 프로그램되어 있다고 하더라도 실제 교전 중에 벌어지는 다양한 상황에 대처하기 힘들다. 또한 킬러 로봇이 대량학살 등 전쟁 범죄를 저지른 경우 소송의 대상이 불명확하기 때문에 법적 책임을 부여하는 것도 어렵다. 이런 문제를 해결하기 위해 최근 미국 캘리포니아주 아실로마에서는 AI 전문가들이 모여 회의를 열고 살상 가능한 자율적 무기를 개발하기 위한 경쟁은 지양해야 한다는 내용이 포함된 23개 조항의 ‘아실로마 AI 원칙’을 만들기도 하였다.


미국과 유럽, 일본 등에서는 이미 AI에 윤리적 책임을 지울 수 있는지에 대한 논의가 한창 진행 중이다



AI 윤리 문제는 AI를 도덕적 행위자로 볼 수 있는지에 대한 해석과 AI가 금전적 손해나 신체적 해를 입혔을 경우 형사처벌을 받을 대상을 누구로 해야 하는지를 주로 논의한다. 이는 과거의 법적 해석으로는 다룰 수 없는 문제들이다. 법률적 관점에서 AI가 어떠한 행위를 했을 때, 그 행위에 대한 권리·의무의 귀속자가 책임져야 한다고 판단하지만, 수많은 AI가 활용되고 인간과 AI의 경계가 모호해지는 상황에서는 이 판단이 쉽지 않다.

미국에서는 한 해 약 3만5,000명이 도로에서 사고로 사망한다. 이 가운데 94%는 사람의 실수나 선택에 의한 것이다. 많은 사람들은 미국에 자율주행차가 도입되면 매년 수만 명의 목숨을 살릴 수 있을 것이라고 이야기한다. 그러나 테러단체의 해커가 자율주행차의 컴퓨터망에 침투해 행동 패턴을 변화시킨다면 치명적인 살상 무기가 될 수도 있다. 자율주행차 면허까지 발급되고 있을 정도로 자율주행차 시대가 성큼 다가온 것을 감안한다면 AI의 보안과 윤리 문제는 시급히 다루어야 할 중요한 문제가 된 것이다.

국내에서도 다소 늦은 감은 있지만 AI 윤리에 대한 논의가 이뤄지기 시작했다. 최근 한국정보화진흥원(NIA)은 AI 윤리 문제로 안전성과 신뢰성, 프라이버시, 오남용, 책임성, 인간 정체성 혼란, 포비아 등 6가지를 선정했다. 안전성과 신뢰성 문제는 AI가 인간을 동물이나 적으로 잘못 판단하는 경우다. 프라이버시 문제는 AI 비서 등 인간의 생활을 편리하게 해주는 기기들로 인해 인간의 사생활이 침해를 받는 문제이다. 오남용 문제는 AI가 잘못된 학습과 판단을 해 작동이 중지되거나 다른 행동을 하는 문제이다. 책임성은 AI 의사나 로보어드바이저가 잘못된 결정을 통해 인간에게 피해를 입혔다면 누가 책임질지에 대한 문제이다. AI가 적용된 대리 인간이나 성관계 로봇 등은 인간 정체성 혼란의 문제이고, AI가 일자리를 빼앗고 인간을 지배할 것이라고 두려워하는 것은 포비아 문제이다.

앞서 언급한 교통사고 상황에 대한 AI의 윤리를 제정한다고 해보자. 원인 제공자가 그 책임을 지는 것이 맞다면 뛰어든 초등학생 2명을 사망하게 하는 것이 옳을 것이다. 그러나 인구통계학적 관점이라면 10명이 죽는 것보다는 2명이, 2명보다는 1명이 죽는 것이 나아 보인다. 차를 우측으로 틀어 1명의 보행자가 사망하게 하는 것이다. 자동차 탑승자보다는 보행자 보호가 우선이라는 정책을 적용한다면 차를 왼쪽으로 틀어 뛰어든 초등학생과 보행자 모두를 보호하고 버스는 절벽으로 떨어져야 할 것이다.

차를 우측으로 틀어 1명의 보행자가 사망하게 하는 것이다. 자동차 탑승자보다는 보행자 보호가 우선이라는 정책을 적용한다면 차를 왼쪽으로 틀어 뛰어든 초등학생과 보행자 모두를 보호하고 버스는 절벽으로 떨어져야 할 것이다.






안병익 대표는…
국내 위치기반 기술의 대표주자다. 한국지리정보 소프트웨어협회 이사, 한국공간정보학회 상임이사, 한국LBS산업협의회 이사를 역임했다. 지난 2000년부터 2009년까지 포인트아이 대표이사를 지냈고, 지난 2010년 위치기반 사회관계망서비스 씨온(현 식신 주식회사)을 창업해 현재 운영 중이다. 건국대학교 정보통신대학원 겸임교수로도 활동하고 있다.


서울경제 포춘코리아 편집부 / 글 안병익 대표
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60