coredot.today
AI는 왜 거짓말을 하는가: 환각의 원인부터 2026년 최신 대응 기법까지
블로그로 돌아가기
AI 환각할루시네이션RAG그라운딩LLM 신뢰성

AI는 왜 거짓말을 하는가: 환각의 원인부터 2026년 최신 대응 기법까지

뉴욕 변호사가 ChatGPT가 지어낸 판례를 법원에 제출했다. LLM은 왜 구조적으로 거짓말을 할 수밖에 없는가 — 수학적 증명부터 RAG, CoVe, 시맨틱 그라운딩까지 실전 대응 기법을 총정리한다.

코어닷투데이2025-12-2614

들어가며: $5,000 벌금을 부른 가짜 판례

2023년 6월, 뉴욕의 변호사 Steven Schwartz가 법원에 준비서면을 제출했다. 인용한 판례 6건 — Varghese v. China Southern Airlines 등 — 은 모두 ChatGPT가 지어낸 가짜였다. 실존하는 저자 이름과 실존하는 저널 이름을 조합해, 존재하지 않는 판례를 그럴듯하게 만들어낸 것이다.

벌금 $5,000. 하지만 진짜 비용은 다른 곳에 있었다 — AI를 신뢰할 수 있는가?라는 질문이 업계 전체에 던져졌다.

이것이 AI 환각(hallucination)이다. 그리고 이 글은 세 가지 질문에 답한다:

  1. LLM은 구조적으로 환각을 일으키는가?
  2. 환각을 어떻게 줄일 수 있는가?
  3. 2026년 최신 기법은 무엇인가?

제1장: 왜 LLM은 거짓말을 하는가 — 구조적 원인

다음 단어를 예측할 뿐이다

LLM의 본질: 주어진 맥락에서 가장 그럴듯한 다음 토큰을 예측한다. 학습 과정에서 "이 문장이 사실인가?"를 판단하는 메커니즘은 존재하지 않는다.

학습 데이터에 "대한민국의 수도는 서울이다"가 수만 번 등장하면, 모델은 "대한민국의 수도는" 다음에 "서울"이 올 확률이 높다는 것을 학습한다. 하지만 이것은 사실을 아는 것이 아니라 패턴을 아는 것이다.

문제는 학습 데이터에 없는 질문이 들어왔을 때 발생한다. 모델은 "모른다"고 답하는 대신, 가장 그럴듯한 패턴을 생성한다. 자신감 있게, 유창하게, 그리고 종종 완전히 틀리게.

수학적으로 불가피하다

2024년, Xu 등의 연구(arXiv 2401.11817)가 계산 가능성 이론을 사용해 증명한 결론:

범용 LLM에서 환각은 구조적으로 불가피하다.

OpenAI도 이를 인정했다: "완벽한 데이터가 있어도, 통계적·계산적 한계 때문에 대형 언어 모델은 항상 그럴듯하지만 거짓인 출력을 생성할 것이다."

환각을 부추기는 구조적 요인

환각을 유발하는 4가지 구조적 요인
학습 목표 유창성과 정확성이 충돌할 때, 유창성이 이긴다
RLHF 편향 인간 평가자가 길고 자세한 답을 선호 → "모른다"보다 지어내기
벤치마크 압력 기권(abstention)에 페널티 → 모르면 추측하도록 훈련됨
지식 단절 학습 마감일 이후의 정보를 "있는 것처럼" 생성

제2장: 얼마나 심각한가 — 숫자로 보는 환각

모델별 환각률 (Vectara HHEM, 2025)

주요 모델 환각률 (낮을수록 좋음)
Gemini 2.0
0.7%
GPT-4o
1.5%
Claude 3.5
4.4%
Claude 3 Opus
10.1%

4년 만에 최고 모델 환각률이 21.8% → 0.7%로 96% 감소했다. 하지만 도메인별로는 여전히 심각하다:

도메인환각률
프로그래밍5.2%
법률6.4%
금융15~25%
의료 (대응 없이)64.1%

기업 피해

  • 환각 1건당 비용: 고객 서비스 18,000 의료과실18,000** ~ 의료 과실 **240만
  • 분기당 평균 2.3건의 심각한 AI 오류 (금융 서비스)
  • 지식 노동자가 AI 출력 팩트체크에 쓰는 시간: 주당 4.3시간
  • Fortune 500 중 공식 AI 출력 검증 정책 보유: 겨우 22%

제3장: 대응 기법 — 2026년 실전 가이드

1. RAG (Retrieval-Augmented Generation)

가장 널리 쓰이는 기법. 모델이 답변을 생성하기 전에, 검증된 문서에서 관련 정보를 먼저 검색해 컨텍스트로 제공한다.

사용자 질문
문서 검색 (벡터 DB)
검색 결과 + 질문을 LLM에 전달
근거 기반 답변 생성

효과: 환각률을 최대 71% 감소시킨다. 하지만 RAG만으로는 부족하다 — 검색된 문서 자체가 부정확하거나, 모델이 검색 결과를 무시하고 자체 지식으로 답하는 경우가 있다.

2. Chain-of-Verification (CoVe)

Meta가 제안한 4단계 자기 검증 기법 (arXiv 2309.11495):

  1. 초안 생성: 일단 답변을 작성
  2. 검증 질문 생성: 답변의 핵심 사실에 대한 질문을 자동 생성
  3. 독립 답변: 원래 답변을 보지 않고 검증 질문에 답변
  4. 최종 수정: 검증 결과를 바탕으로 초안을 수정

효과: 사실 환각을 50~70% 감소.

3. Self-Consistency Sampling

같은 질문에 여러 번 답하게 하고, 답이 일치하는지 확인한다. 진짜 지식은 재현 가능한 답을 만들고, 환각은 매번 다른 답을 만든다는 원리.

4. Graph-RAG

일반 RAG가 텍스트를 검색한다면, Graph-RAG는 구조화된 지식 그래프를 검색한다. "A는 B의 CEO이고, B는 C에 인수되었다" 같은 관계를 명시적으로 저장하므로, 통계적 환각이 발생할 여지가 줄어든다.

5. Temperature 제어

Temperature효과
0.0~0.2결정적, 사실적. 환각 최소화. 팩트 기반 작업에 추천.
0.5~0.7균형 잡힌 창의성과 정확성
0.8~1.0창의적, 다양한 출력. 환각 증가. 브레인스토밍에 적합.

6. 실전 조합 전략

2026년 엔터프라이즈 환경의 베스트 프랙티스:

환각 대응 다층 방어 체계
1층: RAG 검증된 문서 기반 답변 생성
2층: 가드레일 출력 검증, 금지 주제 필터링, 불확실성 표시
3층: 모니터링 Vectara HHEM 등으로 환각률 실시간 추적
4층: Human-in-the-Loop 고위험 판단은 반드시 사람이 최종 검증

맺으며: "0%는 불가능하다. 하지만 0.7%는 가능하다."

AI 환각은 수학적으로 제거할 수 없다. 하지만 실용적으로 매우 낮은 수준(0.7%)까지 줄일 수 있다.

핵심은 "AI를 맹신하지 않되, 포기하지도 않는 것"이다. RAG로 근거를 제공하고, 가드레일로 출력을 검증하고, 모니터링으로 추적하고, 고위험 판단은 사람이 확인한다.

이것은 결국 이 블로그에서 여러 번 다뤘던 센토어 모델과 같은 결론이다 — AI의 능력을 활용하되, 인간의 판단을 유지하는 것.


참고 자료