전체메뉴

검색
팝업창 닫기
이메일보내기

일론 머스크 "AI, 인류 멸종시킬 위험"…업계 "핵처럼 관리 필요"[AI토피아]

구글 CEO도 "AI 실존적 위험 가해"

G7·EU 등 규제 방안 마련 진행

구글·MS 등 자발적 대책 마련

일론 머스크 테슬라 최고경영자(CEO). AP연합뉴스




일론 머스크 테슬라 최고경영자(CEO)가 인공지능(AI)이 인류를 멸종시킬 가능성이 있다고 우려했다. AI가 폭발적 속도로 발전하면서 부작용이 생길 수 있다는 전망을 밝힌 것이다. 에릭 슈밋 전 구글 CEO도 AI가 사람의 목숨을 위협할 수 있다는 예측을 제기했다. 연일 경고음이 이어지자 정부들은 범지구적 차원에서 제동 장치를 논의하기로 했다. 기업들도 앞장서서 AI 개발 속도 조절과 통제장치가 필요하다는 주장을 제시하고 있다.

26일 정보기술(IT) 업계와 월스트리트저널(WSJ)에 따르면 일론 머스크 테슬라 CEO는 23일(현지시간) 영국 런던에서 열린 WSJ의 'CEO 카운슬 서밋'에 화상으로 참석해 "AI가 인류를 발전시킬 수도 있지만, 인류를 절멸(?滅)시키거나 인류의 성장을 제약할 위험도 있다"고 밝혔다.

머스크는 특히 AI가 군사 부문에 거대한 영향을 끼칠 것으로 전망했다. 그는 "초지능(super-intelligence)에는 양날의 칼 같은 요소가 있다"며 "AI는 전장에서 어떤 인간보다 더 빨리 반응할 수 있는 무장이 가능하다. 미래에는 적어도 드론을 운용할 능력이 있는 나라 사이의 전쟁은 '드론 전쟁'일 가능성이 높다"고 말했다.

AI가 인류를 위협할 수 있다는 우려가 쏟아지고 있다. 에릭 슈밋 전 구글 CEO는 24일(현지시간) CEO 협의회에서 "AI가 실존적 위험을 가하고 있다"며 "실존적 위험이란 아주 아주 많은 사람이 다치거나 죽는 것을 뜻한다"고 말했다.

슈밋 전 CEO는 AI가 '제로데이 공격'에 활용될 수 있다고 전망했다. 고도로 발전한 AI가 운영체제 등 핵심 시스템 내 보안 취약점이 발견되면 즉시 이를 겨냥한 해킹 등을 감행할 가능성이 있다고 예측했다. 사회적 혼란이 발생할 수 있는 것이다. 또 AI가 생명 과학 분야에서 악용될 수 있다고 분석했다.

이미지투데이


AI가 사람의 목숨을 위협할 것이라는 경고가 이어지자 각국 정부도 힘을 합쳐 제동 장치를 논의하기로 했다. 주요 7개국(G7)은 이달 20일 일본 히로시마에서 열린 회의 성과를 담은 공동성명에서 "신뢰할 수 있는 AI라는 공통의 목표를 달성하기 위해 민주주의 가치관에 따른 국제적 논의를 진행한다"는 내용을 담았다. 각국 관리들은 30일 AI 규제와 관련한 첫 실무 회의를 가질 예정이다. 유럽연합(EU)은 전 세계에서 처음으로 AI 통제와 관련한 규제 방안을 마련하는 작업을 진행하고 있다. 유럽 의회는 이달 초 마련된 법안 초안에 원칙적으로 합의가 이뤄진 상태다. 앞으로 유럽 의회와 유럽연합 이사회, 유럽연합 집행위원회(EC) 대표들이 최종안을 마련하기 위해 논의할 예정이다.

업계에서도 서둘러 대책을 내놓기 위해 팔을 걷어붙였다. 구글은 EU와 AI 오·남용을 방지하기 위해 자발적인 대책을 마련하기로 합의했다고 24일(현지시간) 밝혔다. 구글은 앞서 AI 정책 권고안을 담은 백서를 공식 블로그를 통해 발표했다. 켄트 워커 구글·알파벳 글로벌 부문 사장은 ‘테러리즘 대응을 위한 국제 인터넷 포럼’과 같은 새로운 조직과 기관의 창설이 필요할 수도 있다고 밝혔다. 그는 각국 정부가 보안 위험이 될 수 있는 AI 기반 소프트웨어 응용 사례, 글로벌 보안을 위협하는 AI 관련 연구·개발을 지원하는 특정 단체 등에 대해 무역 통제를 모색해야 한다고도 강조했다.

마이크로소프트(MS)는 25일(현지시간) AI 규제를 위해 고려돼야 할 5가지 원칙을 제시했다. MS는 이날 블로그를 통해 중요 인프라에 사용되는 특정 AI 시스템에 '안전 브레이크'를 의무적으로 장착할 것을 제안했다.

샘 올트먼 오픈AI CEO. AFP연합뉴스


초거대 AI 열풍을 일으킨 챗GPT 개발사 오픈AI도 22일(현지시간) ‘초지능 AI 거버넌스’라는 제목의 입장문을 발표했다. 오픈AI는 초지능 AI 시스템의 위험을 줄이기 위해 연간 AI 성능 향상 수준을 제한하는 데 세계 주요 정부가 합의해야 한다는 의견을 제시했다. 또 기술의 잠재적 위험성을 고려할 때 국제원자력기구(IAEA) 같은 AI 전담 국제기구가 필요하며 이들이 설정한 ‘안전 기준’에 맞춰 기업들이 검사와 감사를 받아야 한다고 주장했다.

다만 오픈AI는 정부 차원의 규제가 과도할 가능성을 예의주시하고 있다. 로이터통신에 따르면 샘 올트먼 오픈AI CEO는 24일(현지시간) "우리는 (유럽의 AI 규정을) 준수하기 위해 노력할 것이나 준수할 수 없다면 (유럽에서의) 운영을 중단할 것이다"고 말했다. 오픈AI는 챗GPT 등 초거대 AI 모델이 EU의 규제안에서 '고위험' 단계로 지정될 가능성에 반발하는 것으로 알려졌다. EU는 AI를 적용한 도구를 위험도에 따라 '최소' '제한적' '높음' '수용 불가' 등 4단계로 구분한 법안을 마련할 예정이다. 고위험으로 분류되면 EU가 요구하는 추가 안전 요건을 준수해야만 하는 것으로 알려졌다. 다만 올트먼 CEO는 자신의 트위터에 "오픈AI는 유럽에서 계속 운영하게 되어 기쁘게 생각한다"며 "물론 떠날 계획은 없다"고 입장을 번복했다.




챗GPT로 촉발된 생성형 인공지능(AI) 기술 개발 경쟁이 격화하면서 기대와 우려가 공존합니다. AI와 함께 하는 현재와 같이 살아갈 미래는 인류에게 유토피아일 수도 있고, 디스토피아가 될 수도 있습니다. ‘AI토피아’를 통해 AI로 인한 사회·산업의 변화를 분석하고 인류 삶의 미래를 조망합니다.


< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60