실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능(AI) 서비스가 사용자들을 AI에 감정적으로 의존하게 만들 수 있는 우려가 나왔다.
9일(현지시간) CNN에 따르면 오픈AI는 음성 지원이 가능한 새 AI 모델 ‘GPT-4o’와 관련 보고서에서 “사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다”고 우려했다.
GPT-4o는 오픈AI가 올해 5월 공개한 최신 인공지능 모델이다. 딱딱한 기계음이 아닌 자연스러운 사람 목소리를 내고 사용자와 실시간 음성 대화가 가능한 게 특징이다. 특히 GPT-4o에 사용된 AI 음성이 2013년 개봉작 영화 '허(Her)' 속 AI 비서 목소리의 주인공인 스칼릿 조핸슨의 육성과 비슷하다는 지적이 나오면서 논란이 일기도 했다.
오픈AI는 “사용자가 AI와 사회적 관계를 형성하면서 다른 사람과의 상호작용에 대한 필요성을 줄일 수 있다”며 “이는 외로운 개인에 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다”고 염려했다. 이어 생성형 AI가 잘못된 정보를 알려줄 수 있음에도 실제 사람처럼 말하는 AI는 사용자로 하여금 이를 맹신하게 할 수 있다고 지적했다.
오픈AI는 보고서에서 “AI를 ‘안전하게’ 만들기 위해 최선을 다하고 있다”며 “사용자의 잠재적인 ‘감정적 의존’에 대해 지속해서 연구할 계획”이라고 밝혔다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >