전체메뉴

검색
팝업창 닫기
이메일보내기

미·중 과학자 “AI 위험, 냉전 시대 핵처럼 다뤄야”

생물무기와 사이버공격 등에 대한 '레드라인' 설정

"전례없는 인류 재앙 피하기 위해 모두가 협력해야"

로이터연합뉴스




서방과 중국의 주요 인공지능(AI) 과학자들이 AI와 관련된 위험에 대처하기 위해서는 냉전 시대 핵 충돌 방지에 기울였던 노력과 유사한 글로벌 협력이 필요하다고 경고했다.

18일(현지시간) 파이낸셜타임스(FT)에 따르면 이들 과학자들은 지난주 중국 베이징에서 만나 생물무기 제조와 사이버 공격 등 AI 개발에 대한 ‘레드라인(금지선)’을 확인했다. 이후 성명을 내고 “인류에 치명적이거나 실존적인 위험”을 막기 위해 AI 안전에 대한 공동의 접근 방식이 필요하다고 경고했다. 이들은 성명에서 “냉전이 한창이던 시절 국제 과학계와 정부의 공조로 열핵 재앙을 피할 수 있었다”며 “인류는 전례 없는 기술로 인해 발생할 수 있는 재앙을 피하기 위해 다시 한번 협력해야 한다”고 밝혔다.



성명에는 딥러닝 분야에서 저명한 발자취를 남긴 컴퓨터 과학자 제프리 힌튼과 요슈아 벤지오, 세계적인 AI 석학 스튜어트 러셀과 ‘튜링상’을 수상한 중국의 과학자 앤드류 야오 등이 이름을 올렸다. 회의에서는 특히 인간과 동등하거나 우월한 인공지능 시스템을 의미하는 일반인공지능(AGI) 개발에 대한 논의가 주를 이룬 것으로 알려졌다. 요시오 벤지오는 FT에 “토론의 핵심은 강력한 AI 시스템이 넘지 말아야 할 레드라인과 전 세계 정부가 AI 개발 및 배포에 있어 설정해야 할 레드라인이었다”고 말했다. 레드라인에는 AI 시스템이 인간의 명시적인 승인 없이 스스로를 모방하거나 개선하는 등의 자율적인 시스템에 관한 것이 포함된 것으로 알려졌다. 과학자들은 “어떤 시스템도 대량 살상 무기를 설계하거나 생화학 무기 협약을 위반하는 행위자의 능력을 실질적으로 증가시키는 등 심각한 피해를 초래하는 사이버 공격을 자율적으로 실행할 수 있어서는 안 된다”고 덧붙였다.

한편 성명은 세계 양대 기술 강국인 미국과 중국이 모여 기술·기업·정부를 아우르는 협력을 해야 한다는 학계의 목소리를 반영하고 있다. 앞서 조 바이든 미국 대통령과 시진핑 중국 국가주석은 지난해 11월에 만나 이 문제에 대해 대화를 시작하기로 합의한 바 있다. AI 산업을 주도하고 있는 주요 기업들도 최근 몇 달 동안 비공개로 중국 AI 전문가들을 만난 것으로 전해졌다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60