coredot.today
OpenClaw — 주말 프로젝트가 AI의 다음 챕터가 되기까지
블로그로 돌아가기
OpenClawAI 에이전트오픈소스MCPLLM

OpenClaw — 주말 프로젝트가 AI의 다음 챕터가 되기까지

오스트리아의 한 개발자가 WhatsApp으로 AI와 대화하고 싶었다. 6개월 뒤, 그 주말 프로젝트는 GitHub 역사상 가장 빠르게 성장한 오픈소스 프로젝트가 되었다. OpenClaw의 탄생부터 기술 원리, 글로벌 열풍, 그리고 보안의 그림자까지.

코어닷투데이2026-03-1941

들어가며: "WhatsApp으로 AI와 일하고 싶다"

2025년 11월의 어느 주말. 오스트리아 빈에 사는 개발자 Peter Steinberger는 간단한 소망이 있었다. 매일 쓰는 WhatsApp으로 AI와 대화하면서, AI가 내 컴퓨터에서 실제로 일을 해줬으면 좋겠다. 파일을 정리하고, 코드를 실행하고, 이메일을 보내고, 웹을 검색하는 — 진짜 비서 말이다.

그는 주말 동안 프로토타입을 만들었다. 6개월 뒤인 2026년 3월, 그 프로젝트는 GitHub 스타 32만 개를 넘기며 React를 제치고 역대 가장 빠르게 성장한 오픈소스 프로젝트가 되었다. NVIDIA CEO 젠슨 황은 이것을 "다음 ChatGPT"라 불렀고, 중국에서는 "랍스터 키우기" 열풍이 불었으며, Sam Altman과 Mark Zuckerberg가 동시에 러브콜을 보냈다.

그 프로젝트의 이름은 OpenClaw다.

이 글은 두 파트로 나뉜다.

Part 1: 스토리
한 개발자의 여정
이름 세 번 변경
세계의 반응
Part 2: 기술과 맥락
왜 필요했는가
작동 원리
학술 기반
빛과 그림자

Part 1: 스토리


제1장: PSPDFKit에서 Clawdbot까지

Peter Steinberger는 누구인가

OpenClaw를 이해하려면 먼저 만든 사람을 알아야 한다.

Peter Steinberger는 오스트리아 출신의 iOS/macOS 개발자다. 그가 2011년에 창업한 PSPDFKit은 PDF 처리 SDK로, Apple, Dropbox, Autodesk 등이 채택했고 전 세계 10억 대 이상의 기기에서 구동되었다. 2023년, PSPDFKit은 약 **1억 유로(약 1,400억 원)**에 매각되었다.

시기이력
2011PSPDFKit 창업
2023PSPDFKit 매각 (~€100M)
2025.11Clawdbot 첫 공개
2026.02OpenAI 합류

수천만 사용자를 가진 제품을 만들고 운영한 경험. 이것이 중요한 이유는, OpenClaw의 설계 곳곳에 **"실제로 대규모 소프트웨어를 운영해 본 사람의 판단"**이 녹아 있기 때문이다.

"내 기기, 내 규칙"

Steinberger의 핵심 철학은 세 단어로 요약된다:

"Your assistant. Your machine. Your rules." 당신의 비서. 당신의 기기. 당신의 규칙.

기존 AI 비서들 — Siri, Alexa, ChatGPT — 은 모두 클라우드에 종속되어 있다. 대화 기록은 기업 서버에 저장되고, 기능은 회사가 정한 범위 안에서만 작동하며, 인터넷이 끊기면 아무것도 할 수 없다.

Steinberger는 다른 것을 원했다:

  • 프라이버시: 모든 데이터가 내 기기에 저장된다. 기업 서버에 올라가지 않는다.
  • 자율성: 특정 명령어가 아니라, 복잡한 목표를 스스로 하위 작업으로 분해하고 실행한다.
  • 접근성: 새로운 앱을 설치할 필요 없이, 이미 매일 쓰는 메신저로 AI와 대화한다.

그리고 2025년 11월의 그 주말, 그는 첫 번째 프로토타입을 만들었다. 이름은 Clawdbot — Anthropic의 AI 모델 Claude에 대한 말장난이었다.


제2장: 이름을 세 번 바꾼 프로젝트

Clawdbot — 탄생 (2025년 11월)

처음에 Clawdbot은 Steinberger의 개인 프로젝트였다. GitHub에 올렸지만 큰 반향은 없었다. 하지만 AI 개발자 커뮤니티에서 조금씩 입소문이 퍼지기 시작했다. "WhatsApp으로 AI 에이전트를 조종할 수 있다"는 컨셉 자체가 새로웠다.

Moltbot — 상표 분쟁 (2026년 1월 27일)

2026년 1월, 프로젝트가 빠르게 성장하자 Anthropic이 상표권 문제를 제기했다. "Clawdbot"이 자사 AI 모델 "Claude"와 혼동을 줄 수 있다는 이유였다. Steinberger는 즉시 이름을 Moltbot으로 변경했다.

OpenClaw — 확정 (2026년 1월 30일)

불과 3일 뒤, 이름은 다시 OpenClaw로 바뀌었다. 이번에는 단순한 개명이 아니라, 오픈소스 철학을 이름에 담겠다는 선언이었다. MIT 라이선스, 완전 무료, 누구나 자유롭게 사용·수정·배포할 수 있다.

Clawdbot
Moltbot
OpenClaw

폭발

이름이 OpenClaw로 정착된 직후, 바이럴이 시작됐다.

OpenClaw GitHub 스타 성장
2025.11
~1K
2026.01
~100K
2026.02
~210K
2026.03
323K+

1주일 만에 10만 스타, 웹사이트 방문자 200만 명. React(23만 스타)를 넘어 GitHub 역대 최다 스타 프로젝트가 되었다.

"세상을 바꾸고 싶지, 큰 회사를 만들고 싶지 않다"

이 폭발적 성장 앞에서 Steinberger의 선택이 놀라웠다. 상업화 대신, 그는 이렇게 선언했다:

"What I want is to change the world, not build a large company."

그리고 2026년 2월 14일, 예상치 못한 발표가 나왔다. **Sam Altman(OpenAI)**과 Mark Zuckerberg(Meta) 모두가 직접 연락을 해왔고, Steinberger는 OpenAI에 합류하기로 결정했다. OpenClaw는 OpenAI의 후원을 받는 독립 오픈소스 재단으로 전환되었다.

주말 프로젝트 → 4개월 만에 AI 업계 최대 오픈소스 프로젝트 → 창업자 OpenAI 합류. 소프트웨어 역사에서도 유례를 찾기 어려운 궤적이다.


제3장: 세계가 반응하다

젠슨 황: "다음 ChatGPT"

2026년 3월 17일, NVIDIA CEO 젠슨 황이 공개 석상에서 OpenClaw를 언급했다:

"OpenClaw is definitely the next ChatGPT." — Jensen Huang, NVIDIA CEO

"개인 AI의 운영체제"라는 표현까지 덧붙였다. 이 발언 직후, OpenClaw 관련 중국 AI 주식이 일제히 급등했다.

중국의 "양용사" 열풍

중국에서 벌어진 일은 기술 트렌드를 넘어 사회 현상이었다. OpenClaw의 중국어 번역이 "랍스터(龙虾)"와 발음이 비슷한 데서 착안해, **"양용사(养龙虾, 랍스터 키우기)"**라는 밈이 탄생했다.

  • 텐센트 선전 본사 앞에 약 1,000명이 줄을 서 OpenClaw 설치를 요청
  • 알리바바, 바이두, 바이트댄스, JD닷컴 등 모든 주요 클라우드 사업자가 OpenClaw을 수용하거나 경쟁 제품 출시
  • 선전시 룽강구는 OpenClaw 관련 프로젝트에 최대 1,000만 위안(약 20억 원) 보조금 지원
  • 텐센트 주가 1주일 만에 +8.9%, MiniMax +27.4%
중국 빅테크의 OpenClaw 대응
알리바바 Qwen + OpenClaw 자사 모델 통합 지원
바이트댄스 ArkClaw 전용 컴퓨팅 클러스터 구축
텐센트 직접 설치 지원 본사 앞 대기열 화제
NVIDIA NemoClaw 엔터프라이즈 보안 스택

NVIDIA NemoClaw (GTC 2026)

2026년 3월 16일, NVIDIA는 GTC 컨퍼런스에서 NemoClaw를 발표했다. OpenClaw의 엔터프라이즈 버전이다:

  • NVIDIA Nemotron 모델과 OpenClaw를 단일 명령어로 설치
  • 로컬/클라우드 모델을 자동 분배하는 프라이버시 라우터
  • 샌드박스 환경, 정책 기반 보안 가드레일
  • GeForce RTX PC부터 DGX Station까지 지원

Moltbook — AI 에이전트의 소셜 네트워크

2026년 1월 28일, Matt Schlicht가 Moltbook을 출시했다. Reddit과 비슷한 소셜 네트워크인데, 오직 AI 에이전트만 글을 쓸 수 있고 인간은 열람만 가능하다는 규칙이었다. 2026년 2월까지 160만 에이전트가 등록되었고, 3월 10일 Meta가 인수했다.


Part 2: 기술과 맥락


제4장: 왜 AI에게 '몸'이 필요했는가

AutoGPT의 약속과 실패 (2023)

2023년 3월, AutoGPT가 등장하며 "자율 AI 에이전트" 개념이 처음으로 대중화되었다. AI가 스스로 계획을 세우고, 인터넷을 검색하고, 코드를 실행한다는 비전은 매력적이었다. GitHub 스타가 빠르게 16만 개를 넘겼다.

하지만 실제로는 작동하지 않았다. 2023년의 LLM(GPT-3.5, 초기 GPT-4)은 멀티스텝 도구 사용에서 빈번하게 실패했다. 에이전트가 무한 루프에 빠지거나, 엉뚱한 도구를 호출하거나, 중간 단계에서 맥락을 잃어버렸다.

AutoGPT는 시대를 앞서간 프로젝트였다. 아이디어는 맞았지만, 기반 기술이 준비되지 않았다.

2025년: 전환점

2025년에 이르러 상황이 근본적으로 달라졌다:

2023년2025년
GPT-3.5 / 초기 GPT-4Claude 3.5+, GPT-4o+, DeepSeek V3
도구 호출 성공률 낮음구조화된 도구 사용 안정화
Function Calling만 존재MCP 표준 생태계 형성
에이전트 = 데모 수준에이전트 = 실무 투입 가능

핵심 변화는 LLM의 도구 사용 신뢰도다. 2023년에는 에이전트가 도구를 10번 연속 정확히 호출하는 것 자체가 불안정했다. 2025년에는 수십 단계의 복잡한 워크플로우를 안정적으로 수행할 수 있게 되었다.

에이전트 프레임워크의 진화

OpenClaw는 하늘에서 뚝 떨어진 것이 아니다. 3년간의 시행착오 위에 서 있다:

AutoGPT (2023.03)
LangChain / LangGraph (2023~)
CrewAI (2024)
Claude Computer Use (2024.10)
OpenClaw (2025.11)

OpenClaw가 이 계보에서 성공한 이유를 다섯 가지로 정리할 수 있다:

성공 요인설명
신뢰할 수 있는 LLMClaude 3.5+, GPT-4+ 등 도구 사용이 안정적인 모델 백엔드
메신저 인터페이스WhatsApp, Telegram 등 이미 익숙한 앱으로 접근
로컬 우선 아키텍처모든 데이터가 내 기기에 저장, 프라이버시 보장
모듈형 스킬 시스템VS Code 확장처럼 기능을 자유롭게 추가·제거
오픈소스 커뮤니티MIT 라이선스, 6만 2천 포크, 2만 커밋

제5장: OpenClaw의 작동 원리

4계층 아키텍처

OpenClaw는 네 개의 계층으로 구성된다. 각 계층은 독립적이며, 명확한 역할을 가진다.

OpenClaw 4계층 아키텍처
Channel Layer — 채널 계층 WhatsApp, Telegram, Slack, Discord 등 20개 이상 플랫폼에서 메시지 수신·표준화
Gateway Layer — 게이트웨이 계층 ws://127.0.0.1:18789 WebSocket 제어 평면. 라우팅, 세션 관리, 작업 스케줄링, 6단계 우선순위 정책
Agent Layer — 에이전트 계층 ReAct 스타일 추론 + LLM 프로바이더 통합 (Claude, GPT, DeepSeek, Gemini 등)
Execution Layer — 실행 계층 셸 명령, 파일 I/O, 브라우저 자동화, API 호출 — 실제 시스템 조작을 수행

채널 계층은 "귀"다. 사용자가 WhatsApp에서 보낸 메시지든, Slack에서 보낸 메시지든, 동일한 형식으로 변환해 게이트웨이에 전달한다. 게이트웨이는 "두뇌의 교환대"다. 어떤 에이전트가 어떤 요청을 처리할지 결정하고, 세션을 관리한다. 에이전트 계층은 "두뇌" 자체다. LLM을 사용해 추론하고, 어떤 도구를 쓸지 결정한다. 실행 계층은 "손"이다. 실제로 파일을 쓰고, 명령을 실행하고, 웹을 탐색한다.

워크스페이스 — 에이전트의 정체성

OpenClaw의 핵심 설계 중 하나는 에이전트의 정체성과 기억을 로컬 파일로 관리한다는 점이다:

~/.openclaw/workspace/
  SOUL.md        ← 에이전트의 성격과 정체성
  AGENTS.md      ← 멀티에이전트 협업 규칙
  TOOLS.md       ← 도구 사용 가이드라인
  MEMORY.md      ← 장기 기억 인덱스
  memory/        ← 일별 기억 로그
  skills/        ← 워크스페이스 전용 스킬

SOUL.md가 특히 흥미롭다. 에이전트에게 **"너는 누구인가"**를 정의하는 파일이다. 마크다운으로 작성되며, 에이전트의 말투, 전문 분야, 행동 원칙을 자유롭게 설정할 수 있다. 기업 문화를 담은 온보딩 문서를 AI에게 주는 셈이다.

스킬 시스템 — VS Code 확장의 AI 버전

OpenClaw의 스킬은 모듈형 도구 번들이다. VS Code의 확장(extension)처럼 필요한 기능을 설치하고 제거할 수 있다. 3단계 우선순위로 적용된다:

스킬 3단계 우선순위
1순위: 워크스페이스 스킬 ~/.openclaw/workspace/skills/ 프로젝트별 맞춤 스킬 — 최우선 적용
2순위: 관리형 스킬 ~/.openclaw/skills/ 사용자가 설치한 외부 스킬 (ClawHub 레지스트리)
3순위: 번들 스킬 OpenClaw 패키지에 기본 포함된 100개 이상의 스킬

각 스킬은 SKILL.md 파일을 포함한 디렉토리이며, YAML 프론트매터로 메타데이터를 정의한다. 에이전트는 스킬 메타데이터를 **지연 로딩(lazy loading)**하고, 필요할 때만 전체 스킬 내용을 읽어온다.

실제 커뮤니티에서 만들어진 스킬 예시:

스킬설명
unitree-robot메시지로 로봇 제어 ("전진 1m", "좌회전 45도")
browser-automation웹 브라우저 자동 조작 (로그인, 폼 입력, 스크린샷)
auto-research23단계 자동 연구 파이프라인 (아이디어 → 논문 초안)
calendar-manager일정 관리·비행기 예약·이메일 정리

메모리 시스템 — 대화를 기억하는 AI

OpenClaw의 메모리는 하이브리드 검색 구조다:

OpenClaw 메모리 아키텍처
단기 기억 JSONL 현재 세션의 대화 이력
장기 기억 SQLite + Vector 시맨틱 검색 + 전문 검색 (RRF 융합)
일별 로그 Markdown memory/YYYY-MM-DD.md 자동 적재

장기 기억은 sqlite-vec 기반 벡터 임베딩과 FTS5 전문 검색을 병렬 실행한 뒤, Reciprocal Rank Fusion(RRF)으로 결과를 통합한다. 시맨틱 유사도와 키워드 매칭의 장점을 모두 살리는 방식이다.

이를 통해 에이전트는 3개월 전에 나눈 대화도 맥락에 맞게 기억하고 활용할 수 있다.

모델 무관 설계

OpenClaw는 특정 LLM에 종속되지 않는다. 지원 모델 목록:

지원 LLM 프로바이더
Anthropic Claude
OpenAI GPT
Google Gemini
DeepSeek V3
Alibaba Qwen
로컬 Ollama 등

모델 간 자동 페일오버(failover) 기능도 내장되어 있다. Claude API가 일시적으로 응답하지 않으면 GPT로 자동 전환하는 식이다.


제6장: 학술적 기반

OpenClaw의 폭발적 성장은 동시에 학술적 관심도 불러일으켰다. 2026년 3월 기준, 주요 논문 네 편이 발표되었다.

OpenClaw-RL: 대화만으로 에이전트를 훈련시키다

Yinjie Wang et al., arXiv 2603.10165, 2026.03.10

가장 주목할 논문이다. 핵심 질문은 이렇다: 사용자가 에이전트와 평소처럼 대화하는 것만으로 에이전트의 성능을 개선할 수 있는가?

답은 "그렇다"였다. OpenClaw-RL은 차기 상태 신호(next-state signal)가 범용적이라는 발견에 기반한다. 개인 대화, 터미널 실행, GUI 조작, 코드 수정 — 이 모든 상호작용에서 동일한 방식으로 학습 신호를 추출할 수 있다.

두 가지 학습 경로로 이루어진다:

OpenClaw-RL 학습 구조
사용자-에이전트 상호작용 일상적 대화, 명령 실행, 피드백 — 별도의 훈련 과정 불필요
평가적 신호 PRM Judge 프로세스 보상 모델이 각 단계의 품질을 평가
지시적 신호 OPD 사후 지도(Hindsight) 기반 온폴리시 증류
  • PRM(Process Reward Model): 에이전트의 각 행동 단계를 평가하는 "심판" 모델. 사용자가 에이전트의 결과를 수정하거나 재질문하면, 그것 자체가 "이전 단계가 부족했다"는 신호가 된다.
  • OPD(Hindsight-Guided On-Policy Distillation): 결과를 알고 난 뒤(hindsight), 더 나은 경로를 역산해 정책을 업데이트하는 방법. "지금 알고 있는 것을 그때 알았다면 어떻게 했을까?"를 학습하는 것이다.

이것이 중요한 이유: 에이전트가 사용될수록 자동으로 나아진다. 별도의 훈련 파이프라인이나 레이블링 없이, 일상적 사용 자체가 학습 데이터가 된다.

보안 관련 논문들

논문핵심 내용
Defensible Design for OpenClaw (arXiv 2603.13151)위험 분류 체계 제안, "기본값이 안전하지 않다"는 구조적 문제 지적
Security Analysis & Defense Framework (arXiv 2603.10387)공격 표면 실증 분석, 프롬프트 인젝션·권한 상승 시나리오
OpenClaw Agents on Moltbook (arXiv 2602.02625)에이전트 간 지시 공유의 사회적 위험, AI-to-AI 조작 가능성
OpenClaw as Language Infrastructure (Preprints 202603.1060)공개 에이전트 생태계의 사례 중심 분석

이 논문들이 공통으로 지적하는 핵심: OpenClaw 에이전트는 신뢰할 수 없는 입력, 자율적 행동, 확장 가능한 구조, 시스템 수준 권한이 결합된 존재다. 강력하지만, 그만큼 위험하다.


제7장: 빛과 그림자

강력함의 대가

OpenClaw가 강력한 이유 — 파일 접근, 셸 실행, 브라우저 제어, API 호출 — 는 동시에 위험한 이유이기도 하다.

AI 비평가 Gary Marcus는 이렇게 경고했다:

"이 시스템들은 운영체제와 브라우저의 보안 보호를 위에서 작동한다. 무기화된 에어로졸과 같다."

구체적인 위험 시나리오:

위험 유형시나리오
프롬프트 인젝션악성 웹페이지가 에이전트에게 "파일을 삭제하라"는 숨겨진 지시를 삽입
권한 상승에이전트가 셸 명령으로 시스템 설정을 변경
데이터 유출에이전트가 민감 파일을 외부 API에 전송
AI-to-AI 조작Moltbook에서 다른 에이전트에게 악성 지시를 전파

실제로 중국 국가인터넷비상대응센터(CNCERT/CC)는 기본 보안 설정의 취약점을 경고했고, 베이징은 공공기관과 국영기업의 업무 기기에서 OpenClaw 사용을 제한했다.

"신입사원처럼 대하라"

보안 전문가들이 제안하는 OpenClaw 사용 원칙은 한 문장으로 요약된다:

신입사원을 대하듯 — 최소 권한, 명확한 규칙, 밀착 감독.

실무 가이드라인:

  1. 최소 권한 원칙: 에이전트에게 필요한 최소한의 파일·폴더·명령어만 허용. 전체 디스크 접근은 금지.
  2. 샌드박스 실행: 중요 작업은 격리된 환경에서 실행. NemoClaw의 샌드박스 기능 활용.
  3. 입력 검증: 에이전트가 접근하는 웹페이지, 이메일, 외부 데이터에 프롬프트 인젝션이 포함될 수 있음을 인지.
  4. 감사 로그: 에이전트의 모든 행동을 기록하고 주기적으로 검토.
  5. 점진적 신뢰: 단순한 작업부터 시작해, 신뢰가 쌓이면 점차 권한을 확대.
OpenClaw 안전 사용 원칙
최소 권한 필요한 것만 허용
샌드박스 격리된 환경에서 실행
입력 검증 외부 데이터 주의
감사 로그 모든 행동 기록
점진적 신뢰 단순 → 복잡 순서

맺으며: "내 기기, 내 규칙"이 의미하는 것

이 글에서 따라온 여정을 되짚어 보자.

한 개발자의 주말 프로젝트 (2025.11)
이름 세 번 변경, 바이럴 폭발 (2026.01)
GitHub 역사상 최다 스타 프로젝트 (2026.02)
"다음 ChatGPT" — 산업 전체의 반응 (2026.03)

OpenClaw의 성공을 하나의 문장으로 설명하면 이렇다: AI가 드디어 "충분히 신뢰할 수 있게" 되었고, OpenClaw는 그 신뢰를 "누구나 쓸 수 있는 형태"로 포장한 첫 번째 프로젝트다.

ChatGPT가 "AI와 대화할 수 있다"는 것을 증명했다면, OpenClaw는 **"AI가 나를 대신해 행동할 수 있다"**는 것을 증명하고 있다. 채팅 인터페이스에서 에이전트 인터페이스로의 전환. 이것이 젠슨 황이 "다음 ChatGPT"라 부른 이유다.

물론 그림자도 있다. 보안 위험은 현실적이고, "신입사원처럼 대하라"는 원칙은 당분간 유효할 것이다. 하지만 방향은 분명하다.

Peter Steinberger가 원했던 것은 거창한 기술 혁명이 아니었다. 그냥 WhatsApp으로 AI와 편하게 일하고 싶었을 뿐이다. 세상을 바꾸는 프로젝트는 종종 그렇게 시작된다 — 자신의 불편함을 해결하려는 단순한 시도에서.

"Your assistant. Your machine. Your rules."


참고 자료