전체메뉴

검색
팝업창 닫기
이메일보내기

인공지능은 인류를 말살할 수 없다!

The Big Idea<br>사악해질 만큼 똑똑하지 않기 때문이다.

스페이스X와 테슬라 모터스의 설립자인 엘론 머스크는 지금껏 인공지능(AI)의 위험성을 주장해왔다. 그는 오래지 않아 AI가 핵폭탄보다 위험해질 것이라 주장한다. 올 1월에는 인간에게 해롭지 않은 AI의 개발을 연구하기 위해 한 단체에 1,000만 달러를 후원하기도 했다. 스티븐 호킹 역시 완벽한 AI의 개발은 인류의 멸망을 자초할 수도 있다며 우려를 표명한 바 있다.

물론 두 사람이 애플의 ‘시리’같은 휴대폰 보조시스템을 두려워하는 것은 아니다. 인간을 능가하는 초지능 AI가 출현해 인간을 노예로 삼거나 학살하는 상황을 경계하는 것이다. 두 사람의 우려에도 불구하고 더 스마트한 AI를 개발하려는 연구는 세계 각지에서 계속되고 있다. 올 1월 현재 실리콘밸리에서만 170개 기업이 AI를 연구 중이다. 또 페이스북이 2013년 AI 연구그룹을 만든 이래 최고의 인재들을 영입하고 있고, 구글은 지난해 4억 달러를 들여 AI 전문기업인 딥 마인드를 인수했다.

이런 상반된 행보에 일반인들은 의문이 들 수 있다. 소프트웨어 기업과 벤처투자자들이 인류의 재앙을 종용하고 있는 걸까. 아니면 최고의 천재들이 거짓 예언을 하고 있는 걸까. 연구 초기단계인 지금부터 AI 산업에 기준을 정하는 것은 적절해 보인다. 앞으로 그 중요성은 더 커질 것이다. 자율주행 자동차의 운용에 확고한 표준이 필요하듯 말이다.

그러나 가까운 미래에 로봇들이 반란을 일으킬 가능성은 없다는 게 필자의 판단이다. AI의 연구개발은 극도로 복잡한 일이며, 머스크나 호킹 같은 지성인이라고 그 사실을 정확히 이해하고 있어야 한다는 법도 없다. 그래서 현실보다는 공상과학에 가까운 가설에 빠진 것이라 생각한다.

실제로 AI 연구자 중 인간의 통제를 벗어난 초지능 AI를 걱정하는 사람은 거의 없다. 현재 두각을 나타내고 있는 AI 기업 바이캐리어스의 공동설립자 딜립 조지도 마찬가지다.

“AI 업계가 대중의 걱정거리가 될 만한 뭔가를 개발하려면 앞으로도 정말 오랜 시간이 필요할 겁니다.”

페이스북의 AI 연구 책임자인 얀 리쿤 박사 또한 인간과 동일한 수준의 AI 개발은 설령 불가능하다고는 못해도 지극히 어려운 목표라고 강조한다. 예측 가능한 미래에 초지능 AI의 탄생은 불가능하다는 것이다.



캐나다 몬트리올대학 기계학습연구소의 요슈아 벤지오 소장은 오히려 AI에 대한 과도한 경계를 두려워한다. 그런 경계가 대중을 혼란스럽게 만들고, 투자자와 학생들의 관심을 끊어버릴 수 있다는 이유에서다.

“AI가 인간에게 엄청난 위협이 된다고 믿는 정신 나간 사람들이 있습니다. 그런 사람들이 저희 같은 AI 연구자들을 공격 목표로 삼을 지도 모릅니다.”

이 점에서 딜립 조지는 AI 학계와 기업들의 당면 과제가 ‘인공’이나 ‘지능’ 같은 기술적 문제가 아닌 이미지 관리라고 해도 그리 실언이 아니라고 말한다.

“AI 연구자들은 대중들에게 할리우드 영화와 현실의 차이를 알려야 할 의무가 있습니다.”


250만개 연구자들이 단일 AI 시스템 내에서 시뮬레이션에 성공한 뉴런의 개수. 인간 뇌의 뉴런은 860억개에 달한다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서경 마켓시그널

헬로홈즈

미미상인