▶ 대선 유권자들 혼란 우려
▶ 후보들 이미지·목소리까지
미국의 인공지능(AI) 기업들이 11월 대선을 앞두고 자사 AI로 정치적 이미지를 생성하지 못하도록 제한하는 방안을 검토하고 있다.
10일 영국 가디언에 따르면 AI 이미지 생성 기업 미드저니는 오는 대선까지 이용자가 조 바이든 대통령이나 도널드 트럼프 전 대통령에 대한 정치적 이미지를 생성하지 못하게 막는 방안을 검토 중이다.
데이비드 홀츠 미드저니 최고경영자(CEO)는 향후 12개월 동안 유력 대선 후보 등과 관련한 이미지 생성을 금지 또는 제한할 예정이라고 설명했다. 또 다른 AI 이미지 생성 기업 인플렉션 AI도 자사 챗봇 ‘파이’가 특정 정치 후보를 지지하는 발언을 하지 못하도록 조치한다고 예고했다.
페이스북 모회사 메타와 구글에 이어 챗GPT 개발사 오픈AI도 지난주 자사 AI로 생성된 이미지에 라벨을 부착해 특정 이미지 출처를 구별할 수 있게 하겠다고 밝혔다.
오픈AI는 “선거의 무결성을 보호하려면 민주적 절차의 모든 부분에서 협력이 필요하다”라며 “우리 기술이 이 절차를 훼손하는 방식으로 사용되지 않도록 하고자 한다”고 의미를 부여했다.
미국 AI 기업들의 이런 움직임은 대선을 앞두고 AI가 생성한 딥페이크(Deep fake·AI로 만든 영상, 이미지, 음성 조작물) 이미지에 대한 규제를 강화해야 한다는 목소리가 커지는 가운데 나왔다.
연방통신위원회(FCC)는 AI로 만든 선거 운동용 자동 녹음 전화를 금지하는 등 대책 마련에 나섰다. 그 외에도 미국에서는 AI를 활용한 딥페이크 선거운동을 규제하기 위한 법안 발의가 잇따르는 상황이다.
관계자들은 “빠르게 성장하는 혁신과 행동 규범, 새로운 법안 사이의 격차가 매우 크다”고 지적했다.