한국일보

오픈AI, ‘쌩뚱 답변’으로 논란

2025-05-16 (금) 12:00:00
크게 작게

▶ 안전성 평가 강화 밝혀

▶ 관련 웹페이지도 신설

챗GPT 개발사 오픈AI는 14일 ‘자사 AI 모델에 대한 안전성 평가 결과를 발표하는 ’안전성 평가 허브‘라는 웹페이지를 공개한다고 밝혔다.

이 웹페이지에서는 자사 AI 모델이 유해 콘텐츠 생성, 탈옥(안전 장치를 우회해 제한된 콘텐츠 생성), 환각 등의 테스트에서 어떤 점수를 받았는지를 보여주게 된다. 오픈AI의 AI 모델 투명성 강화 노력은 최근 일부 모델을 둘러싸고 논란이 제기됐기 때문이다.

최근 오픈AI는 일부 대표 모델에 대해 안전성 테스트를 급하게 진행하고, 다른 모델에 대해서는 기술 보고서를 공개하지 않았다는 지적을 받아왔다. 또 지난 3월 말 챗GPT의 기본 모델인 GPT-4o의 업데이트 이후 사용자들의 불만이 커지면서 최근에는 업데이트를 전면 취소하기도 했다.

GPT-4o 업데이트는 챗GPT가 사용자 질문이나 말에 칭찬이나 동조를 많이 하도록 만들어졌는데, 문맥이나 상황과 맞지 않는 반응이 나올 때가 있었기 때문이다. 사용자들은 동물을 죽였다거나 금주 약속을 깼다는 얘기에도 “훌륭하다”는 ’생뚱맞은 칭찬‘을 받았다는 경험담이 나왔다.

카테고리 최신기사

많이 본 기사