coredot.today
KET-RAG: GraphRAG의 품질을 1/10 비용으로 — KDD 2025가 주목한 다중 해상도 인덱싱
블로그로 돌아가기
KET-RAGGraphRAG지식 그래프비용 최적화KDD 2025

KET-RAG: GraphRAG의 품질을 1/10 비용으로 — KDD 2025가 주목한 다중 해상도 인덱싱

GraphRAG는 강력하지만, 5GB 법률 문서 인덱싱에 $33,000이 든다. KET-RAG는 '모든 청크에 LLM을 돌릴 필요가 없다'는 통찰로, KG 스켈레톤과 키워드 이분 그래프를 결합해 비용을 한 자릿수 이상 줄이면서 더 나은 품질을 달성한다. KDD 2025 논문을 해부한다.

코어닷투데이2026-03-0831

들어가며: 3만 3천 달러짜리 인덱싱

당신은 로펌의 AI 엔지니어다. 5GB 규모의 법률 케이스 — 수만 건의 계약서, 판례, 증거 자료 — 를 지식 그래프로 변환하여 변호사들이 질문할 수 있게 만들라는 요청을 받았다.

GraphRAG를 사용하면 된다. 모든 텍스트 청크에서 LLM으로 개체와 관계를 추출하고, 커뮤니티를 탐지하고, 요약을 생성하면 된다. 품질은 검증되었다.

그런데 비용을 계산해보니 — $33,000.

한 건의 법률 케이스 인덱싱에 3천 3백만 원. 이것이 현실이다. GraphRAG의 비용 구조는 문서 규모에 비례하여 선형적으로 증가한다. 모든 청크에 LLM을 호출하기 때문이다.

"GraphRAG는 좋다. 하지만 너무 비싸다."

이것이 2024~2025년 Graph-RAG 커뮤니티에서 가장 반복된 말이다. LightRAG는 커뮤니티 계층을 제거하고, PathRAG는 경로 가지치기로 답했다. 하지만 이들도 여전히 모든 청크에서 LLM으로 개체를 추출하는 근본적 비용 구조를 그대로 유지한다.

2025년 2월, 싱가포르 국립대학교(NUS)의 연구팀이 더 근본적인 질문을 던진다:

"정말 모든 청크에 LLM을 돌려야 하는가?"


1. 모든 청크가 동등하지 않다

GraphRAG 비용의 진짜 원인

GraphRAG의 비용 구조를 다시 들여다보자. 인덱싱 과정에서 가장 비용이 큰 단계는 개체·관계 추출이다 — 전체 비용의 약 75%.

이 단계에서 벌어지는 일: 모든 텍스트 청크에 대해, LLM에게 "이 텍스트에서 개체와 관계를 추출해줘"라고 요청한다. 청크가 1만 개면 1만 번, 10만 개면 10만 번. 각 호출에 수백~수천 토큰의 입출력이 발생한다.

그런데 모든 청크가 똑같이 중요한가?

문서 컬렉션을 생각해보자. 어떤 청크는 핵심 개념을 다루고 여러 다른 청크와 연결된다(허브). 어떤 청크는 특정 세부 사항만 담고 있어 다른 문서와의 연결이 적다(말단). 허브 청크에서 추출한 개체와 관계는 지식 그래프의 뼈대를 형성하지만, 말단 청크의 정보는 이 뼈대에 크게 기여하지 못한다.

모든 청크를 동등하게 취급하는 것이 GraphRAG의 비용 비효율의 근본 원인이다.

PageRank로 "중요한 청크"를 찾다

KET-RAG의 첫 번째 통찰은 여기서 출발한다:

"먼저 저렴하게 문서 간 유사도 그래프를 만들고, 그 그래프에서 중심적인(PageRank가 높은) 청크만 골라 LLM 추출을 수행하면, 지식 그래프의 뼈대를 저비용으로 구축할 수 있다."

이것이 KG 스켈레톤(skeleton) — 뼈대만 남긴 지식 그래프다.

하지만 뼈대만으로는 커버리지가 부족하다. LLM 추출을 건너뛴 청크들의 정보도 검색에 반영되어야 한다. 여기서 두 번째 통찰이 등장한다:

"나머지 청크들은 비싼 LLM 추출 없이, 키워드만으로도 의미 있는 구조를 만들 수 있다."

이것이 텍스트-키워드 이분 그래프(bipartite graph) — LLM 호출 없이 만드는 보조 인덱스다.


2. 논문 소개

"KET-RAG: A Cost-Efficient Multi-Granular Indexing Framework for Graph-RAG"

  • 저자: Yiqian Huang, Shiqi Zhang, Xiaokui Xiao
  • 소속: 싱가포르 국립대학교(NUS) 컴퓨팅학부
  • 발표: KDD 2025 (제31회 ACM SIGKDD, 토론토, 2025년 8월)
  • arXiv: 2502.09304
  • GitHub: waetr/KET-RAG (Apache 2.0)

KDD(Knowledge Discovery and Data Mining)는 데이터 마이닝 분야의 최상위 학회다. 지도교수 Xiaokui Xiao는 IEEE 펠로우이자 2024년 SIGMOD Test-of-Time Award 수상자로, 그래프 데이터와 프라이버시 분야의 권위자다.

논문의 핵심 주장:

"KET-RAG는 GraphRAG와 비슷하거나 더 나은 검색 품질(coverage)을 유지하면서 인덱싱 비용을 한 자릿수 이상 줄이고, 생성 품질을 최대 32.4% 개선한다."


3. KET-RAG의 핵심 아이디어: 두 개의 렌즈

KET-RAG의 이름은 KG skEleton + Text-keyword bipartite graph의 약자다. 두 가지 인덱스를 조합하는 다중 해상도(multi-granular) 프레임워크다.

KET-RAG의 다중 해상도 인덱스
KG 스켈레톤 고해상도 — 핵심 청크에서 LLM으로 추출한 정밀한 개체·관계 그래프
키워드 이분 그래프 저해상도 — 모든 청크에서 키워드만으로 구축한 넓은 커버리지 인덱스

비유하자면 이렇다:

  • KG 스켈레톤 = 도시의 주요 도로 + 랜드마크 지도. 비용이 들지만 정확하다.
  • 키워드 이분 그래프 = 도시의 전화번호부. 거의 공짜로 만들 수 있고, 모든 주소를 커버한다.

주요 도로 지도만으로는 골목길을 모르고, 전화번호부만으로는 길을 모른다. 하지만 둘을 합치면 상당히 정확하게 목적지에 도달할 수 있다.


4. KET-RAG는 어떻게 작동하는가

4.1 인덱싱: 뼈대를 세우고, 나머지를 키워드로 채운다

문서 청킹 임베딩 생성 KNN 그래프 + PageRank 핵심 청크 선별
핵심 청크 → LLM 추출 (스켈레톤) + 전체 청크 → 키워드 이분 그래프 = 다중 해상도 인덱스

단계 ①: 모든 청크를 임베딩하고 KNN 그래프를 만든다

문서를 청크로 나눈 뒤, 각 청크의 임베딩을 생성한다. 임베딩 간 유사도로 KNN 그래프를 구축한다 — 각 청크가 의미적으로 가장 가까운 K개 청크와 연결된 그래프다.

이 단계는 임베딩만 사용하므로 비용이 거의 없다.

단계 ②: PageRank로 핵심 청크를 선별한다

KNN 그래프에서 PageRank 알고리즘을 실행한다. PageRank가 높은 청크 = 다른 많은 청크와 의미적으로 연결된 "허브" 청크 = 문서 컬렉션의 핵심 주제를 다루는 청크.

상위 β%(기본값 80%)를 "핵심 청크"로 선별한다.

PageRank가 찾는 "핵심 청크"의 직관
높은 PageRank (핵심 청크 ✓)
"심장 질환은 전 세계 사망 원인 1위다. 주요 위험 인자로 고혈압, 당뇨, 고콜레스테롤혈증이 있으며..."
→ 여러 질환, 위험 인자, 치료법을 연결하는 허브 역할
낮은 PageRank (일반 청크 ✗)
"표 4.3은 2019년 지역별 심혈관 질환 유병률을 보여준다. 아시아 지역은 22.3%..."
→ 특정 통계만 포함, 다른 개념과의 연결이 적음

단계 ③: 핵심 청크에만 LLM 추출을 적용한다 (KG 스켈레톤)

선별된 핵심 청크에 대해서만 GraphRAG와 동일한 LLM 기반 개체·관계 추출을 수행한다. 결과물은 KG 스켈레톤 — 지식 그래프의 뼈대다.

β = 0.8이면 전체 청크의 80%에만 LLM을 호출하므로 20% 비용 절감. β를 낮추면 더 줄일 수 있지만 스켈레톤의 품질이 떨어진다.

단계 ④: 모든 청크에서 키워드 이분 그래프를 만든다

모든 청크(핵심이든 아니든)에서 키워드를 추출하여 이분 그래프를 구축한다. 이 과정에 LLM은 전혀 사용되지 않는다. 토큰화 + 불용어 제거 + 임베딩만으로 완성된다.

키워드 이분 그래프 구조
키워드 노드
심장질환 — 표현 벡터: "심장질환"이 포함된 모든 문장의 평균 임베딩
엣지 (키워드 ↔ 텍스트 청크)
심장질환 ↔ 청크 #42, 청크 #187, 청크 #903, ...
고혈압 ↔ 청크 #42, 청크 #55, 청크 #301, ...
핵심 통찰
키워드 = 프록시 개체 (LLM 없이 만든 유사 개체)
키워드에 연결된 청크들 = 프록시 관계 (개체 간 연결의 근사)

키워드 이분 그래프의 비용은 임베딩 비용만 — LLM 추론 비용 대비 수 자릿수 저렴하다.

4.2 검색: 두 채널의 협주

질문이 들어오면, KET-RAG는 두 개의 채널을 동시에 가동한다.

KET-RAG 듀얼 채널 검색
사용자 질문 "고혈압 환자에게 ACE 억제제와 스타틴을 병용할 때의 효과와 위험은?"
개체 채널 (θ × λ 토큰) 스켈레톤에서 시드 개체 검색 → 관계 확장 → 원본 텍스트 수집
키워드 채널 ((1-θ) × λ 토큰) 이분 그래프에서 키워드 매칭 → 인접 텍스트 수집 → 유사도 필터링
컨텍스트 결합 → LLM 답변 생성 C = C_스켈레톤 + C_키워드 → LLM

예산 파라미터 θ(기본값 0.4)가 두 채널 간 토큰 배분을 결정한다:

  • θ = 0.4 → 스켈레톤 40%, 키워드 60%
  • 스켈레톤이 정밀한 개체 관계를 제공하고, 키워드가 넓은 커버리지를 보완한다

이것이 **다중 해상도(multi-granular)**의 의미다. 고해상도 렌즈(스켈레톤)와 광각 렌즈(키워드)를 동시에 사용하는 것이다.


5. 성능: "더 싸면서 더 잘한다"가 가능한가

벤치마크 환경

논문은 세 개의 멀티홉 QA 데이터셋(각 500건)에서 13개 방법을 비교했다.

  • MuSiQue: 6,761 단락, ~75만 토큰 (다단계 추론 필요)
  • HotpotQA: 20,150 단락, ~62만 토큰 (2-hop 추론)
  • RAG-QA Arena: 7,010 단락, ~135만 토큰 (LLM 심사 기반)

핵심 결과: 저비용 모드에서의 비교

MuSiQue 검색 커버리지 (%) — 저비용 모드
정답이 검색된 컨텍스트에 포함된 비율
Text-RAG
26.4%
LightRAG
45.6%
GraphRAG
47.6%
HippoRAG
51.6%
KET-RAG
77.0%

MuSiQue에서 KET-RAG의 커버리지 77.0%는 GraphRAG(47.6%)를 30%p 가까이 상회한다. 비용은 1.89vs1.89 vs 2.30으로 오히려 저렴하다.

HotpotQA: 비용 대비 품질의 극적 차이

방법비용 (USD)커버리지EMF1
Text-RAG$0.0137.2%14.8%19.4%
GraphRAG$2.3063.0%21.6%30.2%
HippoRAG$1.4064.0%29.2%
LightRAG (고정밀)$11.0676.0%31.0%43.6%
KET-RAG$1.8781.6%28.6%38.7%

KET-RAG는 **1.87LightRAG고정밀모드(1.87**로 LightRAG 고정밀 모드(11.06)의 커버리지(81.6% vs 76.0%)를 넘어선다. 약 6배 저렴하면서 더 많은 정보를 찾아낸다.

고정밀 모드에서도 우세

고비용을 감수하더라도 최대 품질을 원하는 경우:

방법비용커버리지EMF1BERTScore
GraphRAG$21.2974.6%31.0%43.0%79.5
KET-RAG$17.1082.6%35.2%47.7%81.5

동일한 고정밀 모드에서도 KET-RAG가 모든 지표에서 GraphRAG를 상회한다. 비용은 20% 저렴하고, F1은 4.7%p 높다.

"한 자릿수 이상"의 비용 절감은 어디서 오는가

핵심은 모드 간 비교에 있다. KET-RAG 저비용 모드(1.87)GraphRAG고정밀모드(1.87)가 GraphRAG 고정밀 모드(21.29)보다 더 높은 커버리지를 달성한다 — 비용은 11.4배 저렴하면서.

비용 vs 커버리지 비교 (HotpotQA)
GraphRAG 고정밀 $21.29 커버리지 74.6%
KET-RAG 저비용 $1.87 커버리지 81.6% — 11.4배 저렴, 7%p 높은 커버리지

6. 왜 이것이 작동하는가: 세 가지 통찰

통찰 1: "모든 청크가 동등하지 않다"

PageRank는 웹 검색에서 "중요한 페이지"를 찾기 위해 Google이 개발한 알고리즘이다. KET-RAG는 이를 텍스트 청크에 적용한다. 많은 다른 청크와 의미적으로 연결된 청크일수록 높은 PageRank를 받고, 지식 그래프의 뼈대를 형성하는 데 더 중요하다.

이것은 80/20 법칙(파레토 원칙)과 통한다: 핵심 정보의 대부분은 소수의 중요한 청크에 집중되어 있다.

통찰 2: "키워드는 '가난한 자의 개체'다"

지식 그래프에서 개체(entity)는 LLM이 추출한 구조화된 정보다. "삼성전자", "HBM3E", "NVIDIA" — 이런 것들. 하지만 텍스트의 키워드도 본질적으로 같은 역할을 한다.

키워드 "삼성전자"가 포함된 청크들의 집합은, LLM이 추출한 "삼성전자" 개체의 관계 정보와 상당 부분 겹친다. 완벽하지는 않지만, LLM 호출 비용 0으로 만들 수 있다.

논문에서 이를 **프록시 개체(proxy entity)**와 **프록시 관계(proxy relation)**라고 부른다.

통찰 3: "두 렌즈는 한 렌즈보다 낫다"

스켈레톤만 사용하면(Skeleton-RAG만) 핵심 청크가 아닌 부분의 정보를 놓친다. 키워드 그래프만 사용하면(Keyword-RAG만) 정밀한 개체 관계를 포착하지 못한다.

논문의 ablation 결과가 이를 확인한다:

구성MuSiQue 커버리지HotpotQA 커버리지
Keyword-RAG만50.8%72.0%
Skeleton-RAG만67.0%79.8%
KET-RAG (결합)77.0%81.6%

두 인덱스의 결합이 각각보다 일관되게 높은 성능을 보인다. 스켈레톤이 놓치는 부분을 키워드가 보완하고, 키워드가 부정확한 부분을 스켈레톤이 교정하는 상보적 관계다.


7. 사례로 이해하는 KET-RAG

사례 1: 대규모 법률 케이스 분석

5GB 법률 문서를 GraphRAG로 인덱싱하면 ~$33,000. 같은 문서를 KET-RAG로 인덱싱하면:

  • KG 스켈레톤 (β=0.8): 80% 청크만 LLM 추출 → ~$26,400 (20% 절감)
  • 저비용 모드 (큰 청크 크기): ~$3,000 수준으로 추가 절감 가능

그리고 검색 품질은 GraphRAG와 동등하거나 더 높다. 로펌 입장에서 33,00033,000 → 3,000은 POC(Proof of Concept)의 가능/불가능을 가르는 차이다.

사례 2: 멀티홉 의학 연구 질문

질문: "A 약물이 B 유전자를 통해 C 질환에 미치는 영향은?"

이 질문은 A → B → C라는 멀티홉 추론이 필요하다.

  • 개체 채널: 스켈레톤에서 "A 약물", "B 유전자", "C 질환"을 개체로 찾고, 이들 간의 추출된 관계를 수집
  • 키워드 채널: "A 약물"이라는 키워드가 포함된 모든 청크 중, "B 유전자"도 함께 언급된 청크를 이분 그래프에서 찾음

스켈레톤이 정밀한 관계 구조를 제공하고, 키워드가 스켈레톤에서 누락된 추가 맥락을 보완한다.

사례 3: 지속적으로 성장하는 기술 문서

스타트업의 기술 문서가 매주 수십 페이지씩 늘어난다. 새로운 문서가 추가될 때:

  1. 새 청크의 임베딩 생성 → KNN 그래프 업데이트 → PageRank 재계산 → 필요 시 스켈레톤 보강
  2. 새 청크에서 키워드 추출 → 이분 그래프에 노드/엣지 추가

GraphRAG처럼 커뮤니티 전체를 재구축할 필요 없다. KET-RAG는 Microsoft GraphRAG v0.4.1 위에 구축되어 있지만, 커뮤니티 계층 없이 작동하므로 증분 업데이트가 자연스럽다.


8. Graph-RAG "비용 절감" 경쟁에서의 위치

2024~2025년에 "GraphRAG는 비싸다"는 문제에 여러 접근법이 등장했다. 각각이 다른 지점에서 비용을 줄인다.

방법비용 절감 지점핵심 아이디어단점
LightRAG검색 시 토큰커뮤니티 제거, 듀얼 레벨 검색인덱싱 비용은 유사
PathRAG검색 시 노이즈경로 가지치기인덱싱 비용은 유사
LazyGraphRAG인덱싱 LLM 호출모든 LLM 호출을 쿼리 시점으로 지연쿼리 시 비용 증가
KET-RAG인덱싱 LLM 호출핵심 청크만 추출 + 키워드 보조 인덱스스켈레톤 품질이 β에 의존

KET-RAG의 독특한 위치: 인덱싱 비용을 줄이면서도 "검색 품질을 오히려 높인" 유일한 방법이다. LightRAG와 PathRAG는 인덱싱 비용은 GraphRAG와 동일하게 유지하면서 검색 효율만 개선했다. LazyGraphRAG는 인덱싱을 거의 0으로 줄이지만 쿼리 비용이 올라간다.

KET-RAG는 **"적절한 투자(스켈레톤) + 저비용 보완(키워드)"**이라는 중간 지점을 찾았다.


9. 한계와 주의점

논문이 인정하는 한계

1. 그래프 구축 자체는 최적화하지 않았다: 스켈레톤의 개체·관계 추출 방식은 GraphRAG와 동일하다. 추출 자체를 더 효율적으로 만드는 것은 향후 과제.

2. 비파라메트릭 알고리즘: PageRank 기반 선별과 키워드 매칭에 학습된 파라미터가 없다. 도메인별 튜닝이 어려울 수 있다.

3. 데이터셋 제한: MuSiQue, HotpotQA, RAG-QA Arena — 모두 영어 기반 멀티홉 QA. 다른 언어, 다른 태스크 유형에서의 검증은 추가 필요.

실전 고려사항

β(스켈레톤 비율) 튜닝: 기본값 0.8이지만, 문서 특성에 따라 조정이 필요하다. 관계 밀도가 높은 도메인(법률, 의학)에서는 높은 β가 유리하고, FAQ 같은 독립적 콘텐츠에서는 낮은 β로 비용을 더 줄일 수 있다.

θ(채널 배분) 튜닝: 개체 채널과 키워드 채널의 배분. 정밀한 관계 추론이 중요하면 θ를 높이고, 넓은 커버리지가 중요하면 낮춘다.

커뮤니티 수준 조망 불가: GraphRAG의 글로벌 검색(전체 주제 파악)에 해당하는 기능은 없다. "이 데이터셋의 핵심 주제 5개" 같은 글로벌 질문에는 GraphRAG가 더 적합하다.


10. 2026년의 관점: Graph-RAG는 어디로 가는가

비용 문제는 풀리고 있다

2024년 4월 GraphRAG 발표 → 2024년 10월 LightRAG → 2025년 2월 KET-RAG/PathRAG. 불과 10개월 만에 "비용" 문제에 대한 해결책이 쏟아졌다. 각각 다른 방식으로:

  • LightRAG: 커뮤니티를 없앤다
  • PathRAG: 가지치기한다
  • KET-RAG: 핵심 청크만 추출한다
  • LazyGraphRAG: LLM 호출을 미룬다

이 경쟁은 Graph-RAG를 실전에 배포 가능한 기술로 빠르게 성숙시키고 있다.

"다중 해상도"가 핵심 트렌드다

KET-RAG의 "고해상도 스켈레톤 + 저해상도 키워드"는 더 넓은 트렌드의 일부다. RAPTOR의 "추상화 수준별 트리", Adaptive RAG의 "질문 복잡도별 전략", Modular RAG의 "모듈 조합" — 모두 단일 해상도가 아니라 다중 해상도로 정보를 다루는 방향이다.

2026년의 RAG는 "하나의 방법"이 아니라 "상황에 맞는 해상도를 선택하는 시스템"으로 진화하고 있다.

실전 도입 시사점

KET-RAG는 아직 초기 단계다(GitHub 196 스타, 단일 기여자, 6 커밋). 하지만 KDD 2025 채택이라는 학술적 검증과, Microsoft GraphRAG v0.4.1 위에 구축되어 있다는 실용성을 함께 갖추고 있다.

지금 Graph-RAG 도입을 검토 중이라면:

  1. 예산이 넉넉하고 글로벌 질문이 중요하면 → GraphRAG
  2. 빠른 프로토타이핑이 필요하면 → LightRAG (가장 넓은 생태계)
  3. 관계 추론의 정밀도가 핵심이면 → PathRAG
  4. 대규모 문서에 비용 효율적으로 그래프 검색을 적용하려면KET-RAG

KET-RAG는 "GraphRAG의 품질을 원하지만 비용을 감당할 수 없는" 상황에서 가장 실용적인 답 중 하나다. 33,00033,000을 3,000으로 줄이면서 품질은 유지하거나 높인다면, 그것은 단순한 최적화가 아니라 접근성의 민주화다.


참고 논문 및 자료

  • Huang, Y., Zhang, S., & Xiao, X. (2025). "KET-RAG: A Cost-Efficient Multi-Granular Indexing Framework for Graph-RAG." KDD 2025. arXiv:2502.09304.
  • Edge, D., et al. (2024). "From Local to Global: A Graph RAG Approach to Query-Focused Summarization." arXiv:2404.16130.
  • Guo, Z., et al. (2024). "LightRAG: Simple and Fast Retrieval-Augmented Generation." EMNLP 2025 Findings.
  • Chen, B., et al. (2025). "PathRAG: Pruning Graph-based Retrieval Augmented Generation with Relational Paths." arXiv:2502.14902.
  • KET-RAG GitHub Repository. github.com/waetr/KET-RAG