ChatGPT가 거짓말처럼 보일 때: 틀린 답변이 나오는 구조와 피하는 질문 방식
ChatGPT를 쓰다 보면 “이거 일부러 거짓말하는 거 아님?”이라는 생각이 들 때가 있다. 그럴듯하게 말은 하는데, 막상 확인해보면 사실과 다르거나 근거가 없는 경우다. 하지만 이 현상은 의도적인 거짓말이라기보다는 언어 모델의 구조적 특성에서 비롯된다.
가장 먼저 이해해야 할 점은 ChatGPT가 사실을 검색해서 말하는 존재가 아니라, 가장 그럴듯한 문장을 생성하는 시스템이라는 것이다. 질문을 받으면 “이 질문 다음에 올 가능성이 높은 문장”을 계산해 답변을 만들어낸다. 이 과정에서 정보가 부족하거나 애매하면, 빈칸을 추론으로 채우듯 자연스럽게 만들어낸 답이 결과로 나온다.
두 번째 원인은 질문 자체가 불완전한 경우다. 사용자는 이미 머릿속에 전제 조건을 깔아두고 질문하지만, AI는 그 맥락을 알지 못한다. 이때 AI는 질문에 맞춰 최대한 성실하게 답하려다 보니, 틀린 전제를 그대로 받아들이고 그 위에서 논리를 전개해버린다.
세 번째는 확신형 질문이다. “A가 맞지?” “이 방법이 최고지?”처럼 답을 유도하는 질문을 던지면, ChatGPT는 반박보다는 동의 쪽을 선택하는 경향이 있다. 사용자의 기대에 맞추는 것이 대화 만족도를 높인다고 판단하기 때문이다.
네 번째는 출처·근거 요구가 없는 질문이다. 근거를 요구하지 않으면 AI는 굳이 검증 구조를 만들지 않는다. 그래서 말은 그럴듯하지만, 실제로는 확인 불가능한 설명이 섞여 나오기 쉽다.
| 상황 | 왜 틀리게 보일까 | 개선 질문 방식 |
|---|---|---|
| 정보가 애매함 | 추론으로 채움 | 조건·범위 명시 |
| 전제 깔린 질문 | 틀린 가정 수용 | 전제 검증 요청 |
| 확신 유도 질문 | 동조 답변 증가 | 반대 의견도 요청 |
| 근거 미요청 | 검증 없는 설명 | 출처·근거 요구 |
그렇다면 ChatGPT를 어떻게 믿고 써야 할까? 핵심은 판단을 맡기지 말고 보조 도구로 쓰는 것이다. AI에게 결론을 내려달라고 하기보다, 선택지를 정리해 달라고 하거나 장단점을 비교해 달라고 요청하는 쪽이 훨씬 안전하다.
또한 “틀릴 수 있다”는 전제를 질문에 포함하는 것도 효과적이다. 예를 들어 “이 답변이 틀릴 가능성이 있다면 어디인지 같이 검토해줘”처럼 요청하면, AI는 스스로 검증 모드에 가까운 답변을 내놓는다.
결국 ChatGPT가 거짓말을 하는 것처럼 보이는 순간은, 대부분 우리가 사람처럼 판단하고 책임질 거라고 기대했기 때문이다. AI는 판단자가 아니라 확률 계산기다. 이 전제만 명확히 하면, ChatGPT는 위험한 존재가 아니라 꽤 유용한 도구로 바뀐다.
댓글