전체메뉴

검색
팝업창 닫기
이메일보내기

0.4초만에 LLM 거뜬히 처리…AI반도체 기술 세계 첫 개발

■유회준 KAIST 연구팀

신경망 선택활용, 전력소모 줄여

크기 4.5㎜…온디바이스AI에 최적


국내 연구진이 전력 소모와 처리 시간을 크게 줄인 새로운 인공지능(AI) 반도체를 개발했다. 정부는 생성형 AI 산업의 경쟁력 강화를 위해 핵심 인프라인 AI 반도체 개발을 적극 지원해나갈 방침이다.

과학기술정보통신부는 유회준 한국과학기술원(KAIST) 프로세싱인메모리(PIM) 반도체연구센터 및 AI반도체대학원 교수 연구팀이 전력 소모가 400㎽(밀리와트)에 불과하고 0.4초 만에 상용 언어모델을 처리할 수 있는 새로운 AI 반도체 ‘상보형 트랜스포머’를 세계 최초로 개발했다고 6일 밝혔다. 연구 성과는 지난달 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 발표됐다.

상보형 트랜스포머는 ‘스파이킹신경망(SNN)’과 ‘심층인공신경망(DNN)이라는 서로 다른 신경망을 선택적으로 활용하는 반도체다. 사람이 생각을 많이 할 때는 뇌의 에너지 소모가 크고 적게 할 때는 에너지 소모가 작은 것처럼 반도체도 연산량에 따라 전력 소모를 줄일 수 있는 방향으로 두 신경망 중 하나를 선택해 연산할 수 있다는 것이다.

AI반도체 발전 방향. 사진 제공=과기정통부






연구팀은 이 같은 효율화를 통해 기존 GTP 모델을 돌리는 데 250W가 들었던 전력 소모량을 400㎽ 수준의 초전력으로, 동시에 가로세로 4.5㎜의 반도체 칩에서 연산하는 데 성공했다. 엔비디아의 구형 그래픽처리장치(GPU) A100과 비교하면 전력 소모는 625분의 1, 칩 면적은 41분의 1에 불과하다. 연산 속도 역시 GPT-2 모델 기준으로 0.4초 만에 처리가 가능했다. GPT-2는 AI 모델의 성능 지표인 파라미터(매개변수) 7억 800만 개를 가진다. 수천억 파라미터 규모의 초거대 AI 모델보다는 작지만 최근 주목받는 온디바이스 AI, 즉 에지(말단) 기기에 들어가는 AI 연산에 주로 쓰인다. 연구팀은 “이번 연구 성과는 모바일 장치 등 에너지 제약이 높은 환경에서도 정확하게 대규모언어모델(LLM)을 구동할 수 있어 온디바이스 AI 구현을 위한 최적의 기술”이라고 강조했다.

유회준 한국과학기술원 교수가 지난해 3월 14일 정부세종청사 브리핑실에서 PIM 반도체 개발과 관련해 브리핑을 하고 있다. 세종=연합뉴스


연구팀은 향후 이 같은 뉴로모픽(신경) 컴퓨팅을 언어 모델을 넘어 다양한 응용 분야로 연구 범위를 확장할 계획이다. 유 교수는 “기존 AI 반도체가 가진 전력 소모 문제를 해소했을 뿐만 아니라 GPT-2와 같은 실제 AI 모델 응용을 성공적으로 구동했다는 데 큰 의의가 있다”며 “뉴로모픽 컴퓨팅은 AI 시대에 필수적인 초저전력·고성능 온디바이스 AI의 핵심 기술인 만큼 앞으로도 관련 연구를 지속할 것”이라고 설명했다. 전영수 과기정통부 정보통신산업정책관은 “앞으로도 이러한 세계적인 연구 성과를 지속적으로 낼 수 있도록 적극적으로 지원하겠다”고 말했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60