▶ 딥페이크 영상 경험 2030에 물으니
▶ “정교함에 헷갈려 진짜라고 착각”
▶연구진 “출처·목적 명시 대책 필요”
딥페이크(인공지능(AI) 기반 이미지 합성)로 제작된 콘텐츠를 실제로 본 사람들은 이 콘텐츠가 가짜인 것을 알고 보더라도 진짜처럼 인지한다는 연구 결과가 최근 소개됐다.
강진숙 중앙대 미디어커뮤니케이션학과 교수와 박사 수료생 김지현씨가 올해 3월 한국방송학보에 발표한 논문 ‘2030 세대 이용자의 딥페이크 기술 경험에 대한 사례 연구’에 따르면, 연구진은 “대중들이 딥페이크 영상임을 인지하면서도 진짜와 가짜의 경계를 구분하지 않게 되는 태도가 나타나고 있다”고 분석했다.
연구진은 딥페이크로 제작된 영상을 접하거나 제작 프로세스를 경험한 20, 30대 기자·직장인· 보안전문가· 교직원· 군인· 대학생· 대학원생 등 총 12명에 대해 심층 인터뷰와 초점 집단 인터뷰(FGI)를 진행했다. 이에 따르면 사례자들은 소셜 미디어를 통해 딥페이크 콘텐츠를 접했다. 영화 ‘원더 우먼’의 주연을 맡은 이스라엘 배우 갤 가돗의 얼굴과 포르노 배우의 몸을 합성한 음란물, 조 바이든 미국 대통령이 트랜스젠더를 모욕하는 딥페이크 동영상, AI로 만든 젊은 남성 모델을 활용한 칠성사이다 광고 등이다.
연구 참여자들은 딥페이크 이미지와 영상이 실제와 구별하기 어려운 콘텐츠로 제작돼 진위성의 혼란을 가져왔다고 공통으로 지적했다. AI 활용 콘텐츠 등을 3년 5개월간 접해왔다는 연구 참여자 A씨는 “한 정치인이 막말하는 (딥페이크) 영상을 본 적이 있다. 저도 모르게 진짜라고 생각했던 것 같다. 정교하게 만들어져 진짜인지 가짜인지 헷갈렸다”고 털어놨다. 또 다른 연구 참여자 B씨는 “그룹 ‘거북이’의 한 멤버가 사망한 뒤, 그를 (인공지능으로 합성해) 다시 무대에 올린 모습을 TV에서 봤다. 신기했다”는 경험담도 소개했다.
또한 연구진은 사례 분석을 통해 딥페이크 기술은 과장되거나 정치적·선정적 효과를 만들기 위한 하나의 전략으로 이용된다고 설명했다. 이어 “알고리즘을 통해 공유되는 영상은 다양한 계층에 공유돼 대중의 판단을 흐린다”고 덧붙였다. 연구진은 딥페이크 여부를 영상에 표기할 수 있지만 이 또한 기술적으로 없앨 수 있다고 한 사례자의 진술을 인용해, 딥페이크의 출처 및 영상의 목적이나 용도를 명확히 할 수 있는 새로운 대책이 필요하다고 강조했다.
연구진은 아울러 “허위 정보와 범죄, 상업적 유린 등으로 딥페이크로 인한 혼란을 경험한 대중들은 진보적 의식과 태도를 갖고, 적극적으로 기술을 수용하면서 대항할 힘을 기르는 게 중요하다” 고 밝혔다.
<
윤현종 기자>