
AI는 왜 거짓말을 하는가: 환각의 원인부터 2026년 최신 대응 기법까지
뉴욕 변호사가 ChatGPT가 지어낸 판례를 법원에 제출했다. LLM은 왜 구조적으로 거짓말을 할 수밖에 없는가 — 수학적 증명부터 RAG, CoVe, 시맨틱 그라운딩까지 실전 대응 기법을 총정리한다.

뉴욕 변호사가 ChatGPT가 지어낸 판례를 법원에 제출했다. LLM은 왜 구조적으로 거짓말을 할 수밖에 없는가 — 수학적 증명부터 RAG, CoVe, 시맨틱 그라운딩까지 실전 대응 기법을 총정리한다.
2023년 6월, 뉴욕의 변호사 Steven Schwartz가 법원에 준비서면을 제출했다. 인용한 판례 6건 — Varghese v. China Southern Airlines 등 — 은 모두 ChatGPT가 지어낸 가짜였다. 실존하는 저자 이름과 실존하는 저널 이름을 조합해, 존재하지 않는 판례를 그럴듯하게 만들어낸 것이다.
벌금 $5,000. 하지만 진짜 비용은 다른 곳에 있었다 — AI를 신뢰할 수 있는가?라는 질문이 업계 전체에 던져졌다.
이것이 AI 환각(hallucination)이다. 그리고 이 글은 세 가지 질문에 답한다:
LLM의 본질: 주어진 맥락에서 가장 그럴듯한 다음 토큰을 예측한다. 학습 과정에서 "이 문장이 사실인가?"를 판단하는 메커니즘은 존재하지 않는다.
학습 데이터에 "대한민국의 수도는 서울이다"가 수만 번 등장하면, 모델은 "대한민국의 수도는" 다음에 "서울"이 올 확률이 높다는 것을 학습한다. 하지만 이것은 사실을 아는 것이 아니라 패턴을 아는 것이다.
문제는 학습 데이터에 없는 질문이 들어왔을 때 발생한다. 모델은 "모른다"고 답하는 대신, 가장 그럴듯한 패턴을 생성한다. 자신감 있게, 유창하게, 그리고 종종 완전히 틀리게.
2024년, Xu 등의 연구(arXiv 2401.11817)가 계산 가능성 이론을 사용해 증명한 결론:
범용 LLM에서 환각은 구조적으로 불가피하다.
OpenAI도 이를 인정했다: "완벽한 데이터가 있어도, 통계적·계산적 한계 때문에 대형 언어 모델은 항상 그럴듯하지만 거짓인 출력을 생성할 것이다."
4년 만에 최고 모델 환각률이 21.8% → 0.7%로 96% 감소했다. 하지만 도메인별로는 여전히 심각하다:
| 도메인 | 환각률 |
|---|---|
| 프로그래밍 | 5.2% |
| 법률 | 6.4% |
| 금융 | 15~25% |
| 의료 (대응 없이) | 64.1% |
가장 널리 쓰이는 기법. 모델이 답변을 생성하기 전에, 검증된 문서에서 관련 정보를 먼저 검색해 컨텍스트로 제공한다.
효과: 환각률을 최대 71% 감소시킨다. 하지만 RAG만으로는 부족하다 — 검색된 문서 자체가 부정확하거나, 모델이 검색 결과를 무시하고 자체 지식으로 답하는 경우가 있다.
Meta가 제안한 4단계 자기 검증 기법 (arXiv 2309.11495):
효과: 사실 환각을 50~70% 감소.
같은 질문에 여러 번 답하게 하고, 답이 일치하는지 확인한다. 진짜 지식은 재현 가능한 답을 만들고, 환각은 매번 다른 답을 만든다는 원리.
일반 RAG가 텍스트를 검색한다면, Graph-RAG는 구조화된 지식 그래프를 검색한다. "A는 B의 CEO이고, B는 C에 인수되었다" 같은 관계를 명시적으로 저장하므로, 통계적 환각이 발생할 여지가 줄어든다.
| Temperature | 효과 |
|---|---|
| 0.0~0.2 | 결정적, 사실적. 환각 최소화. 팩트 기반 작업에 추천. |
| 0.5~0.7 | 균형 잡힌 창의성과 정확성 |
| 0.8~1.0 | 창의적, 다양한 출력. 환각 증가. 브레인스토밍에 적합. |
2026년 엔터프라이즈 환경의 베스트 프랙티스:
AI 환각은 수학적으로 제거할 수 없다. 하지만 실용적으로 매우 낮은 수준(0.7%)까지 줄일 수 있다.
핵심은 "AI를 맹신하지 않되, 포기하지도 않는 것"이다. RAG로 근거를 제공하고, 가드레일로 출력을 검증하고, 모니터링으로 추적하고, 고위험 판단은 사람이 확인한다.
이것은 결국 이 블로그에서 여러 번 다뤘던 센토어 모델과 같은 결론이다 — AI의 능력을 활용하되, 인간의 판단을 유지하는 것.