▶ 자연스러운 대화 가능한 ‘GPT-4o’ 관련 쟁점 보고서 공개
▶ “AI와 유대 표현하는 현상 관찰”…전문가 “기업, 윤리적으로 해결할 책임”
오픈AI 로고[로이터]
챗GPT 개발사 오픈AI는 실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능(AI) 서비스가 사용자들을 AI에 감정적으로 의존하게 만들 수 있는 위험이 있다고 우려했다.
오픈AI는 음성 지원이 가능한 새 인공지능(AI) 모델 'GPT-4o'(GPT-포오)와 관련해 내놓은 보고서에서 이처럼 지적했다고 CNN이 9일 보도했다.
GPT-4o는 오픈AI가 지난 5월 공개한 최신 인공지능 모델로, 딱딱한 기계음이 아닌 자연스러운 사람 목소리를 내고 사용자와 실시간 음성 대화가 가능한 게 특징이다.
서비스 첫 공개 당시 인간이 AI 비서와 사랑에 빠지는 내용의 2013년 개봉작 영화 '허'(Her) 속 AI가 현실이 됐다는 평가를 받으며 큰 주목을 받았다.
GPT-4o에 사용된 AI 음성이 영화 '허' 속 AI 비서 목소리의 주인공인 스칼릿 조핸슨의 목소리와 비슷하다는 지적이 나오면서 논란이 되기도 했다.
오픈AI는 보고서에서 "사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다"라고 우려했다.
영화 속에서 AI와 사랑에 빠진 주인공 모습이 더는 영화 속 허구가 아닐 수 있다는 점을 지적한 것이다.
오픈AI는 "사용자가 AI와 사회적 관계를 형성하면서 다른 사람과의 상호작용에 대한 필요성을 줄일 수 있다"며 "이는 외로운 개인에 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다"라고 판단했다.
또한 생성형 AI가 잘못된 정보를 알려줄 수 있음에도 AI가 마치 실제 사람처럼 말하는 것은 사용자가 AI를 더욱 신뢰하게 만들 수 있다고 지적했다.
오픈AI는 GPT-4o의 음성 모드 기능이 장기간에 걸쳐 사람들 간의 정상적인 사회적 상호작용 방식에도 영향을 미칠 수 있다고 평가했다.
GPT-4o의 음성 모드는 AI의 음성 답변이 이뤄지는 도중 사용자가 언제든지 개입해 답변을 멈추고 사용자의 음성을 입력할 수 있게 설계됐는데 이 같은 기능설계가 사람 간 상호작용 방식에 영향을 미칠 수 있다고 본 것이다.
오픈AI는 보고서에서 "AI를 '안전하게' 만들기 위해 최선을 다하고 있으며 사용자의 잠재적인 '감정적 의존'에 대해 지속해서 연구할 계획"이라고 밝혔다.
애리조나 주립대에서 기술과 인간 소통을 연구하는 리젤 샤라비 교수는 CNN 인터뷰에서 "기업은 윤리적이고 책임감 있는 방식으로 이 문제를 해결해야 할 책임이 있다"며 "지금은 모든 게 실험적인 단계에 있는 상황"이라고 강조했다.
<연합뉴스>