전체메뉴

검색
팝업창 닫기
이메일보내기

"AI 핵심은 고성능 칩"…'실적 가뭄' 반도체업계, 챗GPT '단비'

[초거대AI 개발 전쟁]

고성능 메모리반도체 수요 확대

HBM 고도화로 장비업체도 수혜

이미지투데이




챗GPT 돌풍으로 인공지능(AI) 주도권 경쟁이 격화하며 삼성전자(005930)SK하이닉스(000660) 등 국내 반도체 업체가 혜택을 볼 것이라는 기대가 커지고 있다. AI 기계학습용 반도체 수요 확대는 자연스레 고성능·고용량 메모리반도체 수요 확대로 연결되기 때문이다. 특히 빠른 처리속도와 낮은 전력소비량 등으로 동일 용량 D램과 대비해 부가가치가 2배가량 높은 고대역폭메모리(HBM)가 AI 서비스 고도화의 큰 축을 담당할 것으로 전망된다.

5일 정보기술(IT) 업계에 따르면 국내 메모리반도체 업계 경영진들은 챗GPT 열풍이 ‘반도체 업사이클’로 이어질 것이라는 기대감을 잇따라 나타냈다. 박정호 SK하이닉스 부회장은 지난달 15일 열린 한림대 도헌학술원 개원 심포지엄에서 “앞으로 AI 챗봇 서비스 분야가 반도체 수요의 새로운 ‘킬러 애플리케이션’이 될 것”이라며 “AI 시대에 일어날 기술혁신의 중심에는 항상 메모리반도체가 있을 것”이라고 밝혔다. 박 부회장은 지난달 28일(현지 시간) 스페인 바르셀로나에서 가진 간담회에서도 “챗GPT로 인한 경쟁으로 데이터센터용 고용량 D램 수요가 늘어날 것”이라고 언급했다. 김재준 삼성전자 메모리사업부 부사장도 최근 열린 실적 콘퍼런스콜에서 “자연어 기반 대화형 AI 서비스가 미래 메모리 수요에 긍정적인 영향을 미칠 것으로 기대한다”고 말했다.



실제 AI용 대규모 데이터 학습에는 고성능 그래픽처리장치(GPU)가 필요하기 때문에 GPU와 짝을 이루는 HBM 수요가 크게 증가할 것으로 전망된다. 오픈AI가 개발한 챗GPT의 기계학습에는 엔비디아의 GPU ‘A100’이 1만여 개 활용됐는데 SK하이닉스의 3세대 HBM이 A100과 결합해 연산속도를 높였다. A100보다 성능이 향상된 엔비디아의 GPU ‘H100’에는 SK하이닉스의 HBM 중 부가가치가 보다 높은 4세대 D램이 결합된다. AMD의 최신 GPU인 ‘MI-100’에는 삼성전자의 ‘HBM-PIM’이 결합됐다. 신한투자증권에 따르면 HBM 시장 규모는 연 평균 30% 이상 커지면서 2030년에는 193억 달러 수준에 달할 것으로 추정된다.

반도체 장비 회사 또한 챗GPT 활성화로 반사이익을 얻을 것으로 전망된다. HBM을 만들기 위해서 고도화된 장비가 필요한데 관련 공정에 필요한 ‘TC 본딩장비’는 한미반도체(042700)가 생산하고 있다. 업계 관계자는 “HBM이 전체 D램에서 차지하는 비중이 미미하지만 고도화된 AI 서비스가 확대되면 고효율 반도체 수요가 크게 늘어날 것”이라면서 “글로벌 경기 침체로 인한 수요 감소로 실적 악화가 현실화한 국내 반도체 기업들에 AI 반도체가 구원투수로 떠올랐다”고 말했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널

서울경제 1q60