IT부=허진 기자
최근 인공지능(AI) 모델 개발을 반년간 중단하자는 논의가 촉발되며 업계 안팎이 시끌벅적했다. ‘현실적으로 가능하냐’는 주장부터 ‘중국에 기회가 될 뿐’이라는 정치적 논란 등 수많은 반발이 제기되며 관련 논의는 급격히 동력을 잃은 듯 보인다.
반면 실현 가능성과는 별개로 관련 논의의 배경을 이루는 문제의식에 많은 사람들이 공감을 표한 것도 사실이다. 실제 챗GPT의 확장세를 언급할 때면 다들 ‘속도’에만 집중했다. 이번 개발 중단 논란은 AI 기술 고도화에 따른 파장과 관련해 아직 대비가 되지 않은 우리 현실을 잘 보여준다. 이용자 100만 명을 모으는데 인터넷은 4년, 검색엔진은 1년 6개월이 각각 걸렸지만 챗GPT는 5일 만에 이 같은 이용자 수를 달성했다. 기술에 적응하고 균형을 확보할 시간을 갖기에는 말 그대로 ‘쏜살같은 시간’이다. 스탠퍼드대 AI 인덱스에 따르면 AI에 대한 열렬한 관심에도 지난해 127개국에서 AI 관련 조항이 포함된 법안이 통과된 건수는 37건에 불과할 정도로 아직 갈 길이 멀다.
학계도 이 같은 문제를 고민 중이다. 학계는 ‘정렬문제’라는 개념을 통해 AI 기술을 인간의 의도에 맞게 ‘정렬’하는 것이 얼마나 어려운 목표인지 알아가고 있다. 향후 언어모델들이 복잡하게 얽히고설키면서 AI 기술에 대한 통제나 예측 가능성은 더욱 낮아질 것이라는 점에서 이제 모두가 고민해야 하는 이슈다.
정부가 최근 발표한 초거대AI 정책에서 이 같은 AI의 윤리나 정치적 판단에 관한 구체적 내용을 찾아보기 어려운 것도 관련 우려를 키운다. 정부 발표 내용을 살펴보면 투자·기술 고도화에 대해서는 수치를 동원해 명확한 청사진을 제시하고 있지만 리터러시·윤리·기술 영향 평가에 대한 내용은 대부분 ‘신뢰성을 확보해야 한다’는 것에 그쳤다.
동력을 잃은 AI 개발 중단 논의 사례처럼 한번 출발선을 떠난 기술은 쉽게 멈추지 않는다. AI 개발을 멈추는 것은 어렵더라도 기술의 어두운 면까지 포함한 영향력을 다방면으로 평가하고, 이를 사회가 온전히 이해할 수 있도록 하는 사회적 논의와 정책이 필요한 시점이다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >