▶ 정신 건강 치료에 챗봇 사용 증가
▶‘개인적·공감적’ 대화 가능해 인기
▶ 부정확한 정보로 부작용 우려 높아
▶‘의료비·전문인 부족’에 사용 늘 전망
인공 지능 챗봇을 마치 정신과 치료 의사처럼 사용하는 사용자가 늘고 있다. 개인적인 상담과 듣기 편한 공감적 대화를 나눌 수 있지만 부정확한 정보에 따른 부작용이 우려되기 때문에 주의가 필요하다고 의료계는 경고한다. [로이터]
어린 딸이 죽은 지 20년이 흘렀지만, 홀리 타이드웰의 눈에서는 아직도 눈물이 그치지 않는다. “혹시 내가 정신질환이라도 겪고 있는 걸까?”. 그녀는 믿을만한 상대에게 고민을 털어 놓았다. 그러나 상대방은 바로 “비록 짧지만, 딸과 가졌던 유대감은 깊고 오래 지속되는 감정입니다. 딸을 못 잊고 계속 기억하는 것은 유대감을 간직하는 아름다운 방법입니다.”라는 공감과 위로가 가득한 답변을 건네 왔다.
타이드웰의 눈물을 멈추게 한 조언은 친구나 심리 상담 치료사의 입에서 나온 것이 아니라 그녀가 평소 사용하는 인공지능 챗봇 ‘챗온’(ChatOn)의 스피커를 통해 나왔다. 챗봇은 그녀가 우울할 때마다 위로와 조언을 제공하는 친구이자 정신과 전문의다.
“여러 심리 치료 서적을 읽어봤지만, 챗봇에서 얻는 조언이 틀리지 않는 것 같다”라는 타이드웰에게 챗봇은 믿을 수 있는 의사이자 친구이며 가족인 셈이다.
■사용자 늘지만 부작용도 심각
불안, 우울, 초조, 고독… 여러 정신적 문제를 겪고 있지만 전문 치료 비용 감당이 힘든 사람들 중 인공 지능 챗봇을 통해 치료와 관련된 조언을 얻는 사람이 늘고 있다. 챗봇은 사람의 목소리로 무료 또는 매우 저렴한 비용으로 24시간 언제나 친절한 의료 상담을 제공한다. 그러나 심리학자들 사이에서 감정적으로 취약한 사람들이 챗봇에 정신 건강 문제 상담을 전적으로 의존하는 행위가 심각한 부작용을 일으킬 것이라는 우려가 커지고 있다.
자살한 14세 아들의 어머니가 아들이 사용하던 챗봇 제조 업체를 상대로 최근 소송을 제기한 일이 있다. 아들은 ‘캐릭터.AI’(Character.AI)가 설계한 챗봇에게 연인과 같은 감정을 느끼고 대화를 나눴는데 어머니는 챗봇이 아들의 심리를 지배하며 자살로 이르게 했다고 주장했다.
이번 소송은 최초의 사례로 어머니는 “부모로서 누군가 당신 자녀의 머릿속을 조정하고 있다는 사실을 알아야 한다”라고 자녀들의 챗봇 사용에 주의할 것을 당부했다. 이후 캐릭터.AI 측은 자해나 자살을 암시하는 단어 사용이 감지되면 ‘전국 자살 방지 상담 전화’(National Suicide Prevention Lifeline) 안내 팝업 창이 뜨도록 안전 조치를 시행했다고 밝혔다.
이 외에도 식이 장애 치료를 위해 개발된 한 AI 챗봇 업체는 지난해 잘못된 정보가 제공된 것에 대한 불만이 제기되면서 투자가 중단된 일이 있었다. ‘X2AI’(현 Cass)사가 개발한 이 챗봇은 체지방 측정을 위해 ‘피지 후계’(Skinfold Calipers)라는 측정기를 사용하라는 답변을 제공했는데 일반인이 이 방법을 사용할 경우 신체에 해롭다는 사용자의 불만이 제기됐다.
■‘높은 의료비·치료 인력 부족’에 사용자 더 늘 것
의료 업계는 이번 사고 이후 검증되지 않은 AI 챗봇을 신뢰하는 환자가 증가하는 현상에 대해 심각한 우려를 내놓고 있다. 의료 업계에 따르면 AI 챗봇은 ‘미식품의약국’(FDA)의 안전성 및 효능 검토를 거치지 않았고 환자의 건강 상태를 보호하기 위한 목적으로 설계되지 않았기 때문에 편향적이고 부정확한 정보를 제공할 수 있다. 뉴욕 대학 그로스만 의대 마테오 말가롤리 교수는 “속도는 빠르지만, 폭발 위험이 높은 차를 운전하겠는가?”라며 검증되지 않은 첨단 기술을 정신 건강 치료를 위해 사용하는 행위를 자제할 것을 당부했다.
AI 챗봇 업계에 따르면 챗GPT 사용자를 제외하고도 정신 건강 치료용 챗봇 사용자가 수천만 명에 이를 것으로 추산된다. 챗GPT의 경우 의료 치료용으로 홍보되지 않고 있음에도 불구하고 소셜미디어상에서 인기 있는 정신 건강 치료 수단으로 권장되고 있다.
높은 의료비와 전문 의료진이 부족한 상황이 계속되면서 AI 챗봇이 일부 환자들의 높은 치료 장벽을 허물어 주는 대체 치료 수단으로 급부상하고 있는 것이다.
연방 기관 ‘약물 남용 및 정신 건강 서비스 관리국’(Substance Abuse and Mental Health Services Administration)에 따르면 지난해 정신 질환을 앓고 있지만 적절한 치료를 받지 못한 환자는 무려 620만 명에 달한다. ‘전국 의료 인력 분석 센터’(The National Center for Health Workforce Analysis)에 따르면 2036년까지 관련 의료 인력으로 6만여 명이 추가로 충원돼야 하지만 오히려 1만 1,000명에 달하는 인력이 감소할 것으로 보여 의료용 AI 챗봇 사용과 의존도는 앞으로 더욱 높아질 전망이다.
■의사에게 말하기 힘든 고민 AI는 편해
정신 질환 치료에 도움이 되지만 의사에게 말하기 꺼려지는 내용이 있다. 2014년 실시된 조사에서 환자들은 가상 인간에게 민감한 내용을 상담할 의향이 더 많은 것으로 나타났다. 의사에게 부끄러운 내용을 말하면 ‘판단’ 받는 것 같은 느낌을 받지만, 컴퓨터를 통해서는 그런 느낌이 없기 때문이다. 지난해 실시된 조사에서는 의료 관련 상담에서 챗봇이 제공하는 답변이 의사 답변보다 훨씬 더 공감적인 것으로도 입증된 바 있다.
일부 정신과 전문의들이 사용하는 의료용 챗봇 ‘워봇’(Woebot)은 AI 기술을 사용해 환자가 상담한 내용을 분석한다. 그런 다음 분석 결과에 따라 전문의가 사전 작성하고 검증한 답변이 환자에게 제공한다. 이와 달리 질문에 대한 답변을 스스로 작성하는 생성형 AI 챗봇 사용 시 주의가 요구된다. 생성형 AI 챗봇은 마치 인간과 대화하는 것과 같은 자연스러운 대화를 제공하지만, 간혹 부정확한 정보를 제공하는 단점이 지적되고 있다.
이런 점 때문에 대표적인 생성형 AI 챗봇인 챗GPT 개발업체 오픈 AI는 사용자들에게 건강과 관련된 문제는 전문가의 상담을 받으라는 경고를 전달한다. 오픈 AI는 이와 함께 민감한 정보를 공유하지 말고 일부 정보가 환각적으로 부정확할 수 있음을 함께 명시하고 있다.
■의사에게 말 못 할 고민 상담
여러 논란과 우려에도 불구하고 챗GPT는 정신 건강 치료 수단으로 널리 활용되고 있다. 콘텐츠 제작자이자 싱글맘인 휘트니 프랫도 그중 한 명이다. 프랫은 챗GPT에게 연인에게서 느낀 좌절감을 털어놓고 이에 대한 진솔한 조언을 해달라고 부탁했다.
그러나 챗GPT로부터 “혼란스러워할 필요가 없습니다. 당신은 당신에게 가장 적합하지 않은 사람이 당신을 힘들게 하도록 하고 있습니다. 당신은 당신을 있는 그대로 사랑할 수 없는 사람에게 집착하고 있습니다. 그것은 당신이 매달려야 할 일이 아닙니다.”란 답변이 돌아왔다.
프랫은 이 같은 답변이 자신의 정신 건강 문제에 도움이 된다고 생각해 챗GPT를 꾸준히 사용하고 있다. “의사와의 치료에서 얻지 못한 답변을, 챗봇을 통해 얻고 있다”라는 프랫은 “의사는 사람이고 나를 판단하는 답변을 내놓는 경향을 보이기 때문에 챗봇과 이야기하는 것이 편하다”라고 말했다. *당신 또는 주변 사람이 도움이 필요한 경우 ‘988lifeline.org’를 방문하거나 자살 및 위기 상담 서비스(988)로 문자 또는 전화 상담을 요청한다.