한국일보

[지평선] ‘인간GPT’ 환각의 부작용

2025-12-24 (수) 12:00:00 이영창 / 한국일보 기자
크게 작게
챗GPT나 제미나이 같은 인공지능(AI) 모델은 “모른다”고 답하지 않는다. 어떻게든 그럴듯한 답을 내놓고야 마는데, 때론 없는 사실을 날조하거나 오답을 정답처럼 교묘하게 포장한다. 이런 환각(할루시네이션)을 그대로 믿고 인용하다간 낭패를 본다. 특히 권리·의무 관계를 규정하는 법률 분야에선 철저한 검증이 필요하다. 경찰이 AI를 이용해 불송치 결정을 하며 허위 판례를 인용한 사례도 있었다.

■ AI는 왜 거짓말을 해서라도 아는 척을 할까? 챗GPT 개발사 오픈AI의 설명은 이렇다. “대부분 평가는 솔직함보다 추측을 장려한다. 객관식 시험을 가정해 보자. 정답을 몰라도 과감히 추측해 운이 좋으면 답을 맞힐 수 있다.” AI는 딥러닝을 통해 실제 인간 세상에서 ‘더 나은 처세’라고 받아들여지는 행태를 따라 하는 것이다. 상사의 돌발 질문에 “정확한 건 추후 보고하겠습니다”라며 신중하게 답을 유보하면 무능한 부하로 찍힌다. 일단 빨리 답하는 임기응변을 더 높게 보는 현실이 AI 행위에 그대로 반영된다는 얘기다.

■ 업무보고의 스타로 떠오른 ‘콩GPT’ 국장 사례를 보면, AI가 환각이라는 부작용을 감수하고서라도 정확보다 신속에 목숨 거는 이유를 이해할 수 있다. 그는 장관이 대통령 질문에 답을 머뭇거리자 바로 치고 들어와 콩 생산·수입량, GMO 문제 등을 속사포처럼 답했다. 일 잘하는 공무원의 표상이 됐고, 차관으로 발탁(2단계 승진)하자는 얘기까지 나왔다. 그러나 확인해 보니 인용 통계가 정확하지 않아 나중에 장관이 국장 답변을 해명하는 소동이 이어졌다.

■ 대통령 앞에서 주눅 들지 않고 순발력을 발휘하는 공무원은 유능한 인재일 가능성이 높다. 그러나 이게 고위공무원이 가질 덕목의 전부는 아니다. 책임감, 도덕성, 공정성, 소통능력 등은 시간을 두고 서서히 가치를 드러내기 마련이다. 대통령 업무보고 자리에서도 공직자가 평소 쌓아온 실력과 전문성이 부각되는 게 옳다. 공무원의 애드리브를 테스트할 자리는 아니다. 콩GPT 국장을 콕 집어 칭찬한 대통령실 브리핑이 공직사회에 어떤 메시지를 던질지 고민해 볼 필요가 있다.

<이영창 / 한국일보 기자>

카테고리 최신기사

많이 본 기사