
KERAIA 완전 해부 — AI가 '생각의 길'을 보여주는 시대
AI는 어떻게 지식을 표현하고, 어떻게 추론하고, 왜 그런 결론을 내렸는지 설명할 수 있을까? KERAIA 프레임워크가 제시하는 '생각의 구름'과 '사고의 경로'를 통해, 지식 표현의 역사부터 2026년 설명 가능한 AI의 미래까지 완전 해부한다.

AI는 어떻게 지식을 표현하고, 어떻게 추론하고, 왜 그런 결론을 내렸는지 설명할 수 있을까? KERAIA 프레임워크가 제시하는 '생각의 구름'과 '사고의 경로'를 통해, 지식 표현의 역사부터 2026년 설명 가능한 AI의 미래까지 완전 해부한다.
2026년, 우리는 AI에게 매일 중요한 결정을 맡긴다.
의료 AI가 "이 환자는 패혈증 위험이 높습니다"라고 진단하고, 자율 주행차가 "지금 차선을 변경합니다"라고 판단하고, 금융 AI가 "이 거래를 차단합니다"라고 결정한다.
그런데 "왜?"라고 물으면?
대부분의 AI 시스템은 대답하지 못한다. 딥러닝 모델은 수십억 개의 파라미터 속에서 답을 찾지만, 그 과정은 블랙박스다. 전문가 시스템은 규칙으로 설명하지만, 현실의 복잡성 앞에서 부서진다.

이 글은 2025년 5월 공개된 논문 KERAIA — Knowledge Engineering and Reference AI Architecture — 가 제시하는 해법을 다룬다. "AI가 어떻게 생각하는지 보여주는" 프레임워크의 탄생 배경부터 핵심 개념, 실전 적용까지 — 지식 표현과 추론의 60년 역사를 함께 여행하자.
AI에게 지식을 가르치는 과정을 지식 공학(Knowledge Engineering)이라 한다. 그리고 이 과정은 AI 역사에서 가장 고통스러운 병목이었다.
1970~80년대, 전문가 시스템(Expert System)이 AI의 황금기를 열었다. 의사의 진단 지식을 IF-THEN 규칙으로 옮기면 AI 의사가 되는 것이다. 하지만 현실은 잔인했다:
프로젝트 시간의 70~80%가 전문가의 머릿속 지식을 꺼내어 컴퓨터가 이해할 형식으로 바꾸는 데 소모되었다. 그리고 전문가 시스템 프로젝트의 60%가 실패했다 — 대부분 이 병목 때문이었다.
문제의 핵심은 암묵지(tacit knowledge)다. 마이클 폴라니가 1966년에 말했듯이:
"We know more than we can tell." (우리는 말할 수 있는 것보다 더 많이 안다.)
노련한 의사는 환자를 보는 순간 "뭔가 이상하다"고 느낀다. 하지만 그 느낌을 IF-THEN 규칙으로 설명하라고 하면 막힌다. 수십 년의 경험에서 나오는 직관은 명시적 규칙으로 환원되지 않는다.
KERAIA의 핵심 질문이 바로 이것이다:
"구조화되지 않은, 종종 암묵적인 인간의 전문 지식을, AI 시스템이 효율적으로 활용할 수 있는 계산 가능한 알고리즘으로 어떻게 변환할 수 있는가?"
AI의 아버지들 — 맥카시, 민스키, 사이먼 — 은 "지식을 어떻게 표현할 것인가"라는 근본적 질문에서 출발했다.
1974년, MIT의 마빈 민스키(Marvin Minsky)가 논문 "A Framework for Representing Knowledge"를 발표했다. 이것은 지식 표현의 역사를 바꾼 논문이다.
민스키의 핵심 아이디어: 인간은 새로운 상황을 만나면, 기억 속에서 가장 유사한 "프레임"을 꺼내 적용한다. 생일 파티에 가면 "생일 파티 프레임"이 활성화되어, 케이크, 노래, 선물이라는 슬롯(slot)이 기대값으로 채워진다.
KERAIA의 Knowledge Source(KS)는 민스키 프레임의 직계 후손이다. 하지만 단순한 데이터 구조를 넘어, 추론 메서드(responder), 이벤트 트리거(attractor), 상태 변경 알림(pulse)까지 내장한다.
KERAIA 논문이 지적하는, 기존 지식 표현 방법들의 공통된 한계:

KERAIA는 이 다섯 가지 한계를 동시에 해결하겠다는 야심 찬 목표를 가지고 설계되었다.
KERAIA는 크게 5가지 핵심 개념으로 구성된다:
"구름(Cloud)"은 특정 도메인, 시나리오, 관점, 또는 가상 상태를 나타내는 동적이고 맥락 기반의 지식 집합이다.
비유하자면, 당신의 뇌에서 "요리"에 대해 생각할 때 활성화되는 신경 영역과, "운전"에 대해 생각할 때 활성화되는 영역이 다른 것처럼 — 구름은 맥락에 따라 활성화되는 지식의 범위를 정의한다.
핵심 특성: 구름은 재귀적으로 중첩될 수 있다. 큰 구름 안에 작은 구름이 있고, 그 안에 더 작은 구름이 있을 수 있다 — 마치 러시아 인형(마트료시카)처럼.
Knowledge Source(KS)는 KERAIA의 원자적 빌딩 블록이다. 민스키의 프레임을 대폭 강화한 것으로, 단순한 데이터 저장을 넘어 능동적인 지식 단위다.
전통적인 온톨로지에서 "is-a" 관계(예: "개는 동물이다")는 항상 참이다. 하지만 현실에서 관계는 맥락에 따라 변한다.
KERAIA의 Dynamic Relations(DRels)은 조건부로 평가되는 관계다:
Lines of Thought(LoTs)는 KERAIA의 가장 혁신적인 기여이자, 설명 가능한 AI(XAI)를 실현하는 핵심 메커니즘이다.
LoT는 여러 KS를 연결하는 명시적 추론 경로다. 의사가 진단할 때 "먼저 증상을 확인하고, 혈액 검사를 보고, 영상을 확인하고, 최종 진단을 내린다"는 순서가 있는 것처럼 — LoT는 AI의 사고 순서를 명확하게 기록한다.
LoT가 제공하는 설명 가능성:
Cloud Elaboration은 기본 지식을 맥락에 맞게 변환하고 확장하는 메커니즘이다.
해군 시나리오에서의 예시: 레이더가 물체를 탐지하면, 기본 데이터(위치, 크기, 속도)만 있다. Cloud Elaboration이 이를 점진적으로 확장한다:
각 단계가 이전 단계의 출력을 입력으로 받아 점진적으로 지식을 풍부하게 만든다. 이것은 마치 형사가 증거를 하나씩 모아 사건의 전체 그림을 완성하는 것과 같다.
KERAIA의 General Purpose Paradigm Builder(GPPB)는 다양한 추론 방법을 하나의 프레임워크에서 사용할 수 있게 해준다.
| 추론 패러다임 | 설명 | KERAIA에서의 역할 |
|---|---|---|
| 전방향 추론 | 데이터에서 결론으로 | 센서 데이터 → 상황 인식 |
| 절차적 추론 | 단계별 순서대로 | 진단 절차, 표준 운영 절차 |
| 인과 추론 | 원인과 결과 추적 | 고장 → 영향 범위 분석 |
| 설명 기반 추론 | 과거 설명을 일반화 | 유사 사례에서 교훈 도출 |
| 유추 추론 | 유사 도메인에서 지식 전이 | 해군 전술 → 사이버 방어 유추 |
| 이상 탐지 | 정상에서 벗어난 것 발견 | 수질 이상 감지, 비정상 행동 |
기존 시스템들은 보통 한 가지 추론 방법에 특화되어 있다. 규칙 기반 시스템은 규칙만, 사례 기반 추론은 사례만. KERAIA는 GPPB를 통해 같은 프레임워크 안에서 상황에 맞는 추론 방법을 골라 쓸 수 있다.
KERAIA 논문은 정직하게 기존 패러다임들과의 코드량 비교를 제시한다:
같은 시나리오를 구현하는 데 KERAIA는 27 NLOC이면 되지만, 지식 그래프로 구현하면 100 NLOC이 필요하다. 3.7배의 차이다.
| 패러다임 | 강점 | KERAIA 대비 약점 |
|---|---|---|
| 온톨로지 + SWRL | 엄격한 형식적 의미론 | 절차/동적 지식에 장황함, 빈번한 업데이트 시 비쌈 |
| 사례기반 추론 (CBR) | 과거 경험 활용 | 사례 폭발 문제, 새로운 상황에 취약 |
| 지식 그래프 | 엔티티 간 관계 표현 우수 | 복잡한 추론 부재, 규칙 표현 위해 확장 필요 |
| 인과 추론 | 원인-결과 집중 | 고정된 의존 관계 가정, 동적 상호작용에 취약 |
| 규칙 기반 시스템 | 이해하기 쉬움 | 규칙 폭발, 대규모에서 상호작용 관리 어려움 |
KERAIA는 세 가지 매우 다른 도메인에서 검증되었다.
다중 에이전트 해군 기동부대가 위협을 탐지하고, 적을 분류하고, 의도를 평가하고, 교전 규칙에 따라 대응을 결정하는 시나리오.
실시간 센서 데이터를 모니터링하고, 이상을 탐지하고, 고장을 진단하고, 결과를 예측하고, 교정 조치를 권고하는 산업 진단 시스템.
전략 보드게임 RISK의 AI 플레이어. 자원 할당, 영토 제어, 상대방 모델링, 장기 전략을 요구하는 복잡한 의사결정 환경.
KERAIA가 다른 프레임워크와 차별화되는 가장 큰 점은 설명 가능성(XAI)이 설계의 핵심에 내장되어 있다는 것이다.
| 설명 메커니즘 | 기능 | 예시 |
|---|---|---|
| Lines of Thought | 추론 경로 추적 | 어떤 KS가 어떤 순서로 활성화되었는지 |
| KS Explains | 각 KS의 사람이 읽을 수 있는 설명 | "이 물체는 속도가 30노트를 초과하므로 군함으로 분류" |
| Function Logs | 실행 감사 추적 | 입력값, 실행 맥락, 출력값 기록 |
| KS Versioning | 지식 변경 이력 | 이 규칙이 언제, 왜 바뀌었는지 |
| Narrative Analysis | 사람이 이해할 수 있는 서술 | "센서 A가 물체를 탐지 → 분류기가 잠수함으로 식별 → ..." |
| What-If 분석 | 대안 시나리오 탐색 | "만약 센서 데이터가 달랐다면 결론이 바뀌었을까?" |
2026년은 뉴로-심볼릭 AI(Neuro-Symbolic AI)가 주류로 떠오르는 해다. LLM의 환각(hallucination) 문제가 심각해지면서, 기업들은 "알고 있는 것"을 명시적으로 관리하는 기호적 AI와 "패턴을 발견하는" 신경망을 결합하는 방향으로 움직이고 있다.
Amazon은 2025년부터 창고 로봇(Vulcan)과 쇼핑 어시스턴트(Rufus)에 뉴로-심볼릭 접근을 적용하기 시작했다. 모델 재학습 비용을 줄이면서 조직 지식을 구조적으로 재활용하려는 것이다.
KERAIA는 이 흐름의 기호적 AI 쪽을 대표하는 최신 프레임워크다.
2025년 8월부터 전면 시행된 EU AI Act는 고위험 AI 시스템에 대해 설명 가능성을 법적으로 요구한다. 의료, 금융, 법률, 공공 부문에서 AI가 내린 결정에 대해 "왜"를 설명해야 한다.
KERAIA의 Lines of Thought는 이 법적 요구에 대한 기술적 해답이 될 수 있다:
AI의 역사는 "지식을 어떻게 표현할 것인가"라는 질문의 역사다.
1974년, 민스키는 프레임으로 구조화된 지식을 제안했다. 1980년대, 전문가 시스템은 규칙으로 전문 지식을 포착했다. 2012년, 구글은 지식 그래프로 세상의 엔티티를 연결했다. 그리고 2025년, KERAIA는 살아있는 지식 구름과 추적 가능한 사고의 경로를 제안한다.
KERAIA가 완벽한 해답인지는 아직 알 수 없다. 대규모 벤치마크가 부족하고, 딥러닝과의 통합도 과제로 남아 있다. 하지만 이 프레임워크가 던지는 질문은 분명히 옳다:
"AI가 무엇을 결정했는가"보다 "AI가 왜, 어떤 과정으로 그 결정에 도달했는가"가 더 중요하다.
의사가 진단서만 내밀고 설명을 거부한다면, 우리는 그 의사를 신뢰할 수 있을까? AI도 마찬가지다. 2026년, EU AI Act가 시행되고, AI 시스템의 투명성이 법적 의무가 된 지금 — "생각의 길"을 보여주는 AI는 선택이 아니라 필수다.
KERAIA는 그 길을 만드는 하나의 방법이다.