전체메뉴

검색
팝업창 닫기
이메일보내기

[단독 인터뷰] 'AI 대부' 제프리 힌턴 "Mr. Cho 같은 인재 유치하려면 기업도 기초연구 투자해야"

딥러닝 시대 이끈 제프리 힌턴 토론토대 명예교수

30년 전엔 딥러닝도 학계 아웃사이더

'뇌가 어떻게 작동하는가' 호기심이 동력

구글 석학 연구원 10년 … 기초연구자만 상당수

정부뿐만 아니라 기업도 기초 연구 투자해야

다만 목표 지향적 투자는 경계해야





‘인공지능의 대부(Godfather of AI)’로 불리는 제프리 힌턴 토론토대 명예교수가 "한국에서 구글 같은 기업이 나오려면 기업도 기초연구에 투자해야 한다”고 제언했다.

최근 토론토 자택에서 서울경제와 창간 특별 인터뷰를 진행한 힌턴 교수는 “한국에서도 미스터 초(조경현 뉴욕대 교수) 같은 뛰어난 AI 연구자가 나오고 있는데 이러한 인재들을 유치하려면 기초연구에 대한 기업의 투자가 늘어나야 한다”고 강조했다. 그가 언급한 조 교수는 기계 번역에서 한 획을 그은 대표적인 AI 연구자다.

힌턴 교수가 한국 언론과 대면 인터뷰를 한 것은 이번이 처음이다. 힌턴 교수는 2012년 당시 학계에서는 통용되지 않던 심층신경망(deep neural networks)을 이용한 학습 방식인 딥러닝을 통해 이미지 인식 성공률을 획기적으로 끌어올리며 AI의 부흥기를 이끌었다. 그가 설립한 DNN리서치를 2013년 구글이 인수하면서 10년째 석학연구원으로서 구글과 일해온 힌턴 교수는 “구글브레인을 비롯한 구글리서치에서는 나와 수많은 연구자들이 특정 문제를 해결하기 위한 연구가 아닌 기초연구만을 파고든다”고 소개했다. 그는 특히 “기초연구팀과 상용화팀 사이에 단절이 거의 없어 기초연구를 서비스와 상품으로 빠르게 상용화할 수 있는 것이 구글의 저력”이라고 짚었다. 그는 100년 전 미국 통신사 AT&T 등이 설립·투자한 벨연구소가 트랜지스터 발명 등을 이끈 사실을 언급하며 “오늘날 구글을 비롯해 메타·마이크로소프트(MS) 등이 벨연구소와 비슷한 역할을 하고 있다. 특히 오늘날 조단위의 매개변수를 처리할 수 있는 어마어마한 양의 컴퓨팅파워를 제공하는 것은 큰 기업만이 할 수 있는 일”이라고 강조했다. 이론으로만 존재하던 딥러닝의 효과적 학습이 가능했던 이유는 이를 구동할 수 있는 컴퓨터 성능이 뒷받침된 게 큰 역할을 했다. 기초 연구 투자는 기업 경쟁력에도 큰 보탬이 된다는 설명이다. 그는 “구글이 기초연구에 많은 투자를 하는 만큼 상용화에도 큰 강점이 있다”면서 “학계와 기업 사이의 이동이 자유롭다는 점도 (상용화에) 도움이 된다”고 설명했다. 지난 10년간 구글 캐나다 법인은 연구 기금에 1800만 캐나다 달러(약 183억원)를 투입했다.

한 과학자의 끈질긴 호기심이 틔운 싹 딥러닝



“호기심이 이끄는 연구를 하는 기초연구자들을 발굴하고 지속적인 지원을 하는 것이 가장 중요합니다. 그것이 커다란 발전(breakthrough)을 일으킬 수 있는 핵심 지점입니다."

평소 효율적이고 절제된 화법을 구사하는 힌턴 교수는 한 시간가량 진행된 인터뷰 동안 유독 이 말을 다섯 차례나 강조했다.

이는 그가 연구자로 살아온 반세기 동안의 경험에서 우러나온 것이다. 1978년 그가 영국 에든버러대에서 인공지능(AI) 분야의 박사 학위를 땄을 때만 해도 그를 주목하는 이는 아무도 없었다. 당시 학계에는 인간이 만든 규칙을 학습시키면 이를 바탕으로 추론을 할 수 있다는 ‘기호주의 인공지능(Symbolic AI)’ 접근이 주류를 이뤘다. 하지만 그는 학계의 유행을 따르지 않았다. 그를 사로잡은 건 ‘인간의 뇌는 어떻게 작동하는가’에 대한 끝없는 질문이었다. 심리학과 생물학에 대한 이해도가 높았던 그는 인간의 뇌가 작동하는 방식은 기호주의 접근과는 다르다고 확신했다. AI를 인간의 뇌처럼 학습시킬 방법을 찾기 위해 당시 이론으로만 존재하던 심층신경망을 토대로 한 딥러닝을 연구했다. 이후 미국 카네기멜런대에서 교수 생활을 시작해 1987년 캐나다 토론토대에 정착한 그는 2012년 세계 최대 이미지 인식 경연 대회 ‘ILSVRC’에서 압도적인 인식 성공률 차이로 우승하기까지 35년간 변방에서 묵묵히 연구를 계속했다. 2015년 네이처지에 얀 르쾽, 조슈아 벤지오와 함께 딥러닝 논문을 발표하고 2016년 이세돌 9단과 세기의 대결을 펼친 AI 알파고(AlphaGo)가 대중에 알려지면서 오늘날 AI 열풍의 선구자로 자리잡게 됐다.

힌턴 교수는 자신을 줄곧 연구에 매달리게 한 동력은 “뇌가 어떻게 작동하는지 알고 싶다는 호기심”이었다고 말한다. 호기심을 뚝심으로 바꾼 건 어린 시절의 깨달음이 평생에 걸쳐 영향을 미쳤다. 그는 “일곱 살 때 처음 간 학교가 종교적인 색채를 띠었는데 학교에서 하는 말을 그대로 받아들인 친구들과 달리 나는 그렇지 않았다”며 “처음으로 사람들은 누구나 틀릴 수 있다는 생각을 하게 된 그때의 경험이 ‘다른 연구자들도 틀릴 수 있다’는 생각을 갖고 연구를 지속하게 된 바탕이 됐다”고 술회했다.

6쪽 제안서로도 3~5년 안정적 펀딩…토론토의 강점 만들어



그가 미국을 떠나 캐나다에 정착한 것은 기초과학 분야에 안정적으로 펀딩이 이뤄지는 환경 때문이다. 힌턴 교수는 “미국만큼 펀딩 규모가 크지는 않지만 캐나다는 기초연구에 상당 부분의 투자를 집행한다”며 “미국의 교수들이 연구 자금 지원을 받기 위한 제안서를 쓰느라 대부분의 시간을 써야 할 정도인 반면 캐나다에서는 6쪽 정도의 제안서만 내도 3~5년 펀딩을 받을 수 있다”고 말했다. 연구의 주제를 제약하지 않고 연구자들이 자신이 순수한 호기심을 충족할 수 있도록 기본 펀딩을 제공해주는 구조라는 설명이다. 이외에도 캐나다의 기본 의료 보험을 포함한 훌륭한 사회보장 시스템, 이민자에게 우호적인 시스템 등이 결정에 영향을 미쳤다. 그는 “캐나다는 이민자에게 호의적인 거의 유일한 국가”라며 “매우 다양성이 높은 문화를 가지고 있고 환대하는 분위기가 있어 전세계 과학자들에게 굉장히 매력적"이라고 짚었다. 또 그는 “현재 나는 여럿의 훌륭한 이란 과학자들과도 일하고 있는데 미국이라면 쉽지 않았을 것"이라고 덧붙였다.

힌턴 교수는 성과나 목표 지향적 태도를 경계한 캐나다 정부의 기초연구 투자가 오늘날 캐나다를 AI 분야의 리더로 만들었다고 말했다. 캐나다는 2017년 세계 최초로 범국가 AI 전략을 수립하고 첫해에 1억 2500만 캐나다 달러(약 1275억 원)를 힌턴 교수가 이끄는 벡터연구소를 비롯해 몬트리올 소재 밀라연구소, 에드먼튼앨버타연구소(AMii) 등에 집중 투자했다. 캐나다 정부는 올해 투자 규모를 4억 4300만 캐나다 달러로 늘렸다.

AI 인재 육성과 훌륭한 인재 유치를 내세우는 한국 정부를 향해서도 기초연구 투자를 우선순위에 두라는 조언을 했다. 힌턴 교수는 “정치권이나 정책 담당자 입장에서는 구체적인 프로젝트에 투자하고 있다고 말하는 게 훨씬 쉽다”면서 기초연구의 중요성을 간과하는 유혹에 빠지지 말 것을 당부했다. 그는 특히 1982년 일본 정부가 1000억 엔(약 9700억 원) 규모로 추진한 제5세대 컴퓨터 프로젝트를 예로 들며 “목표 중심형 프로젝트는 언뜻 좋아보일 수 있지만 아무런 성과를 내지 못한다. 이런 식의 투자는 피해야 한다”고 지적했다.

거장의 파괴적 혁신…딥러닝으로는 충분치 않다



딥러닝의 새 지평을 연 AI 대부의 여전한 관심사는 ‘뇌가 어떻게 작동하는가’이다.

힌턴 교수는 “지구상에서 가장 큰 인공신경망(Artificial Neural Network)이 조 단위의 학습 데이터를 가지고 학습을 한다”며 “수명 70세인 경우 사람이 겨우 20억 초 정도를 산다는 것을 고려하면 뇌는 인공신경망에 비해 훨씬 적은 데이터로 학습을 하는 셈”이라며 인공신경망이 사람의 뇌처럼 학습하는 수준에 이르기까지는 갈 길이 멀다고 말했다.

최근 자신의 딥러닝 모델에 가장 큰 성취를 안겨준 백프로퍼게이션(Back Propagation) 알고리즘의 대안을 찾는 연구를 시작했다. 힌턴 교수는 “백프로퍼게이션은 데이터가 많은 커다란 시스템에서 작동하지만 대안적 알고리즘은 작은 시스템에서도 작동할 수 있을 것”이라고 기대감을 내비쳤다.

구글의 초거대 인공지능(AI) ‘PaLM’은 힌턴 교수가 흥미롭게 지켜보고 있는 딥러닝 연구의 상용화 사례다. 약 5000억 개의 매개변수(파라미터)를 가진 이 초거대 AI는 전 세계 농담을 분석해 이해하고 그 의미를 알려준다. 힌튼 교수는 “PaLM 시스템이 가동되려면 적어도 추가로 5년은 걸릴 줄 알았다”며 커다란 성취임을 강조했다. 또 딥마인드가 개발한 단백질 구조 예측이 가능한 알파폴드(AlphaFold)는 지난 50년간 생물학의 가장 큰 문제를 해결한 수준이라고 평했다.

앞으로 그가 기대하는 AI의 활용 영역은 의료 분야부터 기후변화 위기 해결까지 다양하다. 힌턴 교수는 “의료 이미지 분석 등 헬스케어에서의 활용은 물론 약 설계 등 나노 기술 단위에서 더욱 활용도가 높아질 것”이라고 내다봤다. 불법 포획을 감지해 해양 생물을 보호하거나 같은 농장에 있는 작물에도 맞춤형으로 최적의 비료나 농약을 뿌려 농작물을 보호하는 일이 가능해진다는 것이다.

일각에서 제기되는 AI 윤리에 대한 생각도 밝혔다. 그는 “AI 시스템에 편향성이 생기면 이를 판별하기는 쉽다”며 “사람 안의 편향성이나 편견을 바로잡는 것보다 AI 시스템의 편향성을 고치는 게 용이한 만큼 꾸준히 개선해 나갈 수 있을 것”이라고 말했다.

제프리 힌턴 토론토대 명예교수는 인공지능(AI)도 뇌와 가까운 방식으로 학습을 할 수 있다는 ‘딥러닝’의 개념을 정립한 연구자로 학계에서 ‘인공지능의 대부(Godfather of AI)’로 불린다. 2012년 세계 최대 이미지 인식 대회 ILSVRC에서 당시만 해도 통용되지 않던 딥러닝 알고리즘을 통해 AI 학습을 이끌어 이미지 인식률을 10%포인트 이상 높였다. 구글이 그의 회사인 DNN리서치를 인수하면서 2013년부터 구글 석학 연구원으로서 구글 리서치 산하 브레인팀에서 기초연구를 이끌었다. 이미지 분류, 음성 인식 분야의 혁신을 이끌었을 뿐만 아니라 2016년 이세돌 9단과의 세기의 대결로 알려진 AI ‘알파고(AlphaGo)’가 대중적으로 알려지면서 AI 열풍을 이끌었다. 2018년에는 컴퓨터 과학 분야의 노벨상으로 불리는 튜링상을 수상했다.
구글 스콜라에서 공식 집계한 출간 논문의 피인용 건수는 59만 건이 넘는데 이 중 70% 이상이 최근 5년 사이에 집중될 정도로 현재도 학계에 큰 영향을 주고 있다. 현재 사람의 뇌와 비슷한 학습을 할 수 있는 AI 연구에 매진하고 있다.

걸어온 길
△1947년 영국 브리스틀 △영국 케임브리지대 △영국 에든버러대 AI 박사 △1982년 미국 카네기멜런대 컴퓨터과학과 교수 △1987년 캐나다 토론토대 컴퓨터과학과 교수 △2012년 세계 최대 이미지 인식 경연 대회 ILSVRC 우승 △2012년 머신러닝 업체 ‘DNN리서치’ 설립 △2013년 구글의 석학 연구원 △2015년 네이처지에 ‘딥러닝’ 연구 발표 △2017년 AI 연구소 ‘벡터 연구소’ 설립 주도 △2018년 튜링상 수상


< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60