들어가며 — "수학을 모르는 청년이 60년 난제를 푸는 시대"
2026년 4월, 한 장의 짧은 게시물이 수학자 커뮤니티를 흔들었다. 23살, 수학 학위가 없고, 정수론 논문을 한 편도 읽어본 적 없는 청년이 60년간 풀리지 않던 Erdős 문제 #1196을 해결했다고 발표한 것이다.
도구는 ChatGPT GPT-5.4 Pro, 단 한 번의 프롬프트, 약 80분의 추론. 그게 전부였다.
그의 이름은 Liam Price. 그는 한 인터뷰에서 이렇게 말했다.
"솔직히 그 문제가 뭔지도 몰랐어요. 평소처럼 그냥 erdosproblems.com에서 문제를 하나 골라 AI에게 던져 보고, 뭐가 나오는지 보던 중이었는데, AI가 정답처럼 보이는 답을 들고 왔습니다." — Scientific American, 2026-04
이 사건이 특별한 이유는 단순히 "AI가 수학 문제를 풀었다"가 아니다. 사람이 60년간 같은 길로만 걸어온 문제를, AI가 90년 묵은 다른 도구를 들고 와 단번에 풀어냈다는 것이다. 더 놀랍게도, 그 도구는 숨겨져 있던 비밀 무기가 아니었다 — 단지 아무도 이쪽 문제에 적용해 볼 생각을 하지 않았을 뿐이었다.

이 글은 다음을 다룬다.
- 누가, 무엇을, 어떻게 풀었나 — Liam Price와 GPT-5.4 Pro의 80분
- Erdős가 1935년에 던진 질문 — "원시집합(primitive set)"이란 무엇인가
- 2022년 Lichtman의 박사학위 논문 — 첫 번째 추측은 이렇게 풀렸다
- 문제 #1196 — 두 번째 추측의 60년 — 왜 사람들은 이걸 못 풀었나
- AI가 들고 온 새로운 길 — 폰 망골트 함수와 Markov chain, 그리고 ζ-가중치 ν
- 수학자들의 다섯 가지 반응 — Tao, Lichtman, Bloom, Sawin, 그리고 Hacker News
- 'Vibe Maths' 노하우 — Liam Price의 실제 사용법과 우리가 따라할 수 있는 부분
- 2026년의 의미 — 한국 실무자에게 이 사건이 시사하는 것들
수학을 잘 모르는 분도 따라올 수 있게, 핵심 개념을 그림과 직관으로 풀어 설명한다. 그러면서도 실제로 어떤 추론이 일어났는지를 놓치지 않는다 — 왜냐하면 AI가 어떻게 사고했는가를 이해해야, 우리도 비슷한 도약을 우리 분야에서 끌어낼 수 있기 때문이다.
제1장: Erdős가 1935년에 던진 질문 — "원시집합"이란?
Paul Erdős, 그리고 그가 남긴 1,000개의 미해결 문제
20세기 가장 다작한 수학자 Paul Erdős는 1996년 사망할 때까지 약 1,500편의 논문과 1,000개에 가까운 미해결 문제를 남겼다. 그는 늘 작은 가방 하나만 들고 친구의 집을 옮겨다니며 문제를 푸는, 전설적인 수학 유랑자였다.
그가 남긴 문제들은 erdosproblems.com에 정리되어 있고, 1,000개가 넘는 문제 하나하나에 번호가 붙어 있다. 어떤 문제는 수십 만 달러의 상금이 걸려 있고, 어떤 문제는 십 분이면 풀린다. 그래서 Erdős 문제는 "AI 수학 능력을 측정하는 비공식 벤치마크"로 자리 잡았다 — 적당히 어렵고, 다양하고, 결과를 검증하기 쉽기 때문이다.
이 글의 주인공은 그중 #1196번 문제다.
"원시집합(primitive set)" — 한 줄로 정의하기
수의 집합 A가 다음 조건을 만족할 때 원시집합이라 부른다.
A의 두 원소 a=b 중 어느 쪽도 다른 쪽을 나누지 않는다.
말로 풀면 — "이 집합 안에서는 어떤 수도 다른 수의 약수가 아니다".
가장 자연스러운 예는 소수의 집합이다. 2, 3, 5, 7, 11, ... — 어느 소수도 다른 소수를 나누지 못한다 (소수의 약수는 자기 자신과 1뿐이니까).
소수 집합 {2, 3, 5, 7, 11, ...}
원시집합의 가장 자연스러운 예
{4, 6, 9, 10, 15}
4|? — 어느 것도 4를 나누지 않음
원시집합 ✓
{2, 4, 6}
2 | 4, 2 | 6
원시집합 ✗
{
2k:
k≥0}
1 | 2 | 4 | 8 | ...
원시집합 ✗
Erdős 합 — 원시집합에 매기는 "점수"
Erdős는 1935년 짧은 논문 한 편에서 다음 양을 정의했다.
f(A)=a∈A∑aloga1
이 합을 흔히 Erdős 합이라 부른다. 의미는 단순하다 — 원시집합 A의 원소들을 가지고 만든 일종의 "점수". 큰 수가 많을수록, 또 원소가 많을수록 점수가 커진다. 그러나 1/(aloga) 자체가 빠르게 작아지므로, 무한히 커지진 않는다.
Erdős가 1935년 논문에서 증명한 것이 이것이다.
모든 원시집합 A에 대해 f(A)는 어떤 보편적 상수 이하다 — 점수의 최댓값이 존재한다.
그런데 그는 거기에서 멈추지 않고, 아주 매혹적인 두 가지 추측을 던졌다.
①
첫 번째 추측 (1986)
"점수의 최댓값"은 정확히
소수 집합이 달성한다 —
f(primes)≈1.6366. 즉 소수가 모든 원시집합의 챔피언이다.
②
두 번째 추측 (1968, with Sárközy & Szemerédi)
원시집합
A를 점점 더 큰 수만으로 구성하면 — 예:
A⊂[x,∞)이고
x→∞ — 점수의 최댓값은 정확히
1로 수렴한다.
!
왜 1인가?
"
k개 소수의 곱"으로만 이루어진 집합
Nk (예:
k=3이면
{30,42,66,70,...})는 정확히 1에 수렴하는 점수를 가진다. 이게 1이라는 숫자의 자연스러운 출처다.
첫 번째 추측은 2022년 Stanford의 박사과정생 Jared Duker Lichtman이 박사학위 논문에서 풀었다 — 사람의 손으로. 그 이야기는 Quanta Magazine 2022년 6월 기사가 자세히 다뤘고, 그를 한 자리에 올려 놓은 결정적 결과다.
두 번째 추측이 #1196번 문제다 — 그리고 60년간 막혀 있었다.
제2장: 왜 60년이 걸렸을까 — 사람들이 갇힌 길
정수론에서 "최선의 부등식"이라는 압박
수학자들은 이 문제에 대해 점차 좁혀지는 상한을 만들어 왔다.
원시집합 점수의 점근 상한 — 60년의 좁히기
목표 (추측, 1968)
1.000
Lichtman (2020) — Banks–Martin
≈1.399
기존 최고 (Mertens-type)
≈1.78
자명한 상한
≈1.84
GPT-5.4 Pro (2026-04) ✨
1+O(1/logx) — 추측 해결
표에서 보듯, 사람들은 1.78에서 1.40으로 좁히는 데 수십 년을 썼지만 1까지는 끝내 가지 못했다. 그 사이의 거리는 단순한 계산상의 차이가 아니라 개념적 거리였다.
사람들이 모두 들었던 "한 가지 도구함"
GPT-5.4 Pro 증명을 정리한 기술 노트와 Tao의 코멘트에서 분명한 것은 — 60년간 이 문제를 본 사람들은 거의 모두 같은 종류의 도구를 썼다는 것이다.
Step 1. 원시집합을 다루기 어려우니 일단 연속체로 옮긴다 (정수 → 실수).
Step 2. Mertens 정리(소수의 분포에 관한 1874년 결과)에서 나온 가중 평균을 적용한다.
Step 3. "곱들의 밀도(density of multiples)"를 careful하게 분할한다.
Step 4. 1.78, 1.4, ... 좁히기. 그러나 1을 정확히 찍는 일은 항상 마지막 ε에서 막힌다.
UCLA의 Terence Tao는 이 사건 직후 자신의 코멘트에서 이렇게 표현했다.
"사람들은 분명 이 문제를 들여다 봤다. 그리고 모두가 첫 수에서 약간 잘못된 방향으로 갔다. 일종의 집단적 정신적 차단(mental block)이 있었다." — Terence Tao, Scientific American
수학자들이 "당연한 첫 수"라고 여긴 연속 근사로의 평탄화가, 알고 보면 가장 결정적인 정보 — 정수가 정수라는 사실 — 를 흘려버리는 첫 단추 잘못이었다. 누구도 그걸 의심하지 않았기에, 60년 동안 모두가 같은 막다른 길로 더 정교하게만 들어갔다.
제3장: 2026년 4월 — 한 청년의 한가한 월요일 오후
Liam Price와 Kevin Barreto, 그리고 "Vibe Maths"의 시작
이 사건에는 두 명의 청년이 등장한다.
- Liam Price (23세) — 정식 수학 교육을 받지 않은 아마추어. ChatGPT Pro 구독자.
- Kevin Barreto — 케임브리지 대학 수학과 2학년 학부생.
두 사람은 2025년 말부터 일종의 게임을 시작했다 — "Erdős 문제를 무작위로 골라 AI에 던져보고 뭐가 나오는지 본다." 처음에는 무료 ChatGPT 버전으로. 그 시도가 종종 진짜 새로운 결과를 낳자, 한 AI 연구자가 두 사람에게 ChatGPT Pro 구독을 선물했다 (Scientific American 인터뷰).
이 활동에 그들이 붙인 별명이 "Vibe Maths"다 — 정확한 어원은 "vibe coding"(코드를 한 줄도 안 짜고 AI한테 분위기로 만들게 하는 것)에서 온 농담. 깊은 이론적 직관이 없어도, 적당한 호기심과 좋은 프롬프트만으로 AI와 수학을 한다는 의미다.
"단 한 번의 프롬프트"
2026년 4월의 어느 월요일, Liam Price는 erdosproblems.com에서 #1196번을 골라 GPT-5.4 Pro에 던졌다. 자신이 그 문제의 무게를 알고 있었던 게 아니다 — 그냥 그날 마음에 든 문제였을 뿐이다.
GPT-5.4 Pro는 약 80분간 추론한 끝에, 길고 다소 거친 증명 후보를 출력했다. Price는 결과를 확인하지 못한 채, 친구 Barreto에게 보냈다. Barreto가 한 번 읽고 멈칫했다 — "이거… 진짜 같은데?"
월요일 오후
Liam Price, [erdosproblems.com](https://www.erdosproblems.com)에서 #1196 발견. 단일 프롬프트를 GPT-5.4 Pro에 입력. 평소처럼 "Vibe Maths" 모드.
~80분 후
AI가 폰 망골트 가중치(von Mangoldt weight)와 Markov chain을 결합한 증명 초안 출력. 길고 거칠지만 구조는 새것.
같은 저녁
Cambridge 학부생 Kevin Barreto가 검토. 핵심 아이디어가 진짜라는 것을 알아챔. Tao와 Lichtman에게 알림.
며칠 안에
Tao, Lichtman, Will Sawin, Barreto가 함께 증명 정제. ζ-가중치 ν를 도입해 더 짧고 깨끗한 형태로 다시 씀.
기술 노트 공개.
수학자들에게 가장 중요한 메시지를 만든 사람은 결국 Tao였다. 그는 erdosproblems.com 포럼 #1196 스레드에 직접 들어와 "이 증명의 핵심 아이디어가 진짜로 새롭다"라고 확인했다.
제4장: AI는 무엇을 본 걸까 — 폰 망골트, Markov chain, 그리고 ζ-가중치
여기서부터는 약간의 수학이 나온다. 하지만 수학을 모르는 분도 큰 그림은 따라올 수 있게 비유와 그림을 함께 둔다.
핵심 아이디어 한 줄로
"모든 큰 정수에서 출발해 점점 작은 수로 내려가는 '약수 산책길'을 만들고, 그 산책길이 원시집합과 부딪힐 확률을 계산한다."
말로는 단순하다. 그런데 이 산책길의 보폭을 어떻게 정할 것인가가 핵심이다. AI가 새롭게 발견한 것은 — 정수론의 가장 깊은 함수 중 하나인 폰 망골트 함수가 보폭의 정확한 무게가 된다 — 는 사실이다.
폰 망골트 함수 Λ(q) — 소수의 "메아리"
폰 망골트 함수는 1894년 Hans von Mangoldt가 도입한 정수론의 고전적 무기다.
Λ(q)={logp,0,q=pm (소수 거듭제곱)그 외
겉보기엔 이상한 정의지만, 마법 같은 항등식이 성립한다.
q∣n∑Λ(q)=logn
말로 풀면 "n의 모든 약수에 대한 폰 망골트 값의 합은 정확히 logn". 이 항등식이 산술의 기본정리(소수 분해의 유일성)를 한 줄로 압축한 것이다.
기존 수학자들은 이 도구를 소수 정리나 L-함수 분석에 썼지, 원시집합 문제에는 시도하지 않았다. 너무 가까이 있어서 안 보였던 도구였다.
"약수 산책길" — 다운워드 Markov chain
이제 산책길을 만들어 보자. 큰 정수 n에서 시작해, 매 시각마다 그 약수 q≥2를 골라 n↦n/q로 내려간다.
n=360
↓ 약수 q=2 선택
180
180
↓ q=3
60
60
↓ q=5
12
12
↓ ... 끝까지
1
질문은 — "n에서 n/q로 갈 때, 어느 약수 q를 어느 확률로 고를 것인가?"
AI가 들고 온 가중치는 다음과 같다.
P(n→n/q)=lognΛ(q)
이게 핵심이다. q가 소수의 거듭제곱이 아니면 확률 0이고, 소수 거듭제곱이면 logp/logn. 그리고 위에서 본 항등식 ∑q∣nΛ(q)=logn 덕분에, 이 확률들이 정확히 1로 합쳐진다 — 즉 진짜 확률 분포를 이룬다.
말로 풀면 "n의 약수 중 어느 소수 거듭제곱으로 잘라낼지를, 그 소수의 로그 비중에 비례해서 고른다" — 이게 자연스러운 산술적 산책길이다.
그리고 시간을 거꾸로 돌리면 — 업워드 chain
기술 노트의 진짜 트릭은 이 다운워드 chain의 수반(adjoint) chain, 즉 시간을 거꾸로 돌린 업워드 chain을 보는 것이다. 1에서 시작해 매 시각 Λ(q) 비중으로 곱해 올라간다.
1=X0∣X1∣X2∣⋯
이 chain의 핵심 성질은 "항상 약수 관계로만 올라간다"는 것이다 — 즉 sample path 전체가 약수 사슬이다.
마법의 가중치 ν(n) — 1/ζ에서 나온 보이지 않는 자
이제 가장 중요한 개념. **ν(n)**을 "이 업워드 chain이 정수 n을 한 번이라도 방문할 확률"로 정의한다.
기술 노트의 명제 2.2가 보여주는 것은 — 이 ν가 다음의 깔끔한 적분 표현을 갖는다는 것이다.
ν(x)=∫1∞x−s(ζ(s)1)′ds
여기서 ζ(s)는 리만 제타함수다 — 정수론에서 가장 유명한 함수, 소수의 분포를 코드화한 그 객체. 즉 ν는 "1을 제타함수로 나눈 것의 도함수의 라플라스 변환" 같은 것이고, 정수론의 가장 깊은 곳에서 자연스럽게 솟아나는 양이다.
그리고 ν는 두 가지 놀라운 성질을 갖는다.
| 성질 | 의미 | 왜 결정적인가 |
|---|
① 정확한 불변성 ν(n)=∑qlog(nq)Λ(q)ν(nq) | 업워드 chain의 정확한 invariant measure | 기존 접근의 "근사 불변성 1/(nlogn)"을 정확한 등식으로 격상 |
② 점근식 ν(x)=xlogx1−xlog2x2γ+⋯ | 큰 x에서 정확히 1/(xlogx)로 행동 | Erdős 합 ∑1/(aloga)와 직접 연결됨 |
이 두 가지 성질로부터 3행짜리 결정타가 나온다.
(1) 원시집합은 약수 사슬을 한 번만 통과한다. A가 원시이면, 어떤 약수 사슬도 A의 두 원소를 동시에 포함할 수 없다. (둘 중 하나가 다른 하나를 나누게 되니까.)
(2) 따라서 사건 Ea={chain이 a를 방문}들은 서로 배반(disjoint).
∑a∈Aν(a)=∑a∈AP(Ea)=P(⋃a∈AEa)≤1
(3) ν의 점근식을 적용하면 Erdős 합 ∑1/(aloga)≤1+O(1/logx) — 추측 해결.
이걸 본 수학자들의 첫 반응은 — "이게 어떻게 60년간 안 보였지?"였다.
"Book Proof" — Erdős가 꿈꾼 그 책
Erdős에게는 평생의 농담이 하나 있었다. "신은 가장 아름다운 증명을 모은 책(THE BOOK)을 가지고 있다. 우리 임무는 그 책을 훔쳐보는 것이다."
Stanford의 Jared Duker Lichtman은 이 증명을 본 직후 이렇게 평했다.
"이건 어쩌면 AI가 처음으로 만들어낸 'Book Proof'일지 모릅니다. 두 영역 사이의 더 단단한 연결을 보여 주죠 — 원시집합의 조합론과 정수의 확률적 해부학(probabilistic anatomy of integers) 사이의." — Lichtman, Hacker News 토론
제5장: 수학자들의 다섯 가지 반응
이 사건에 대한 반응은 단일하지 않았다. 다섯 가지 흐름을 정리해 보자.
Tao (UCLA)
"새로운 도구다. 다른 문제에도 쓰일 것"
Lichtman (Stanford)
"원시집합과 정수 해부학의 통일적 그림"
Bloom (erdosproblems.com)
"GPT는 종종 '문헌 검색'에 가깝다"
Sawin / Barreto
"함수체 모형으로도 이해된다"
커뮤니티 회의론
"이해관계 충돌 / 재현 불가 / 표절 위험"
① Tao — "이건 진짜 도약이다"
Tao는 자신의 블로그와 erdosproblems.com 포럼에서 이 결과를 검증한 첫 번째 인물이다. 그가 강조한 두 가지가 있다.
- 개념적 새로움이 있다. 단순히 알려진 기법의 재배열이 아니라, "폰 망골트 가중치 정수 공간 Markov chain"이라는 진짜 새 아이디어다.
- 다른 정수론 문제에도 쓰일 것이다. Billingsley 정리, Erdős–Kac 정리, Dickman law 같은 "정수의 해부학(anatomy of integers)" 분야 전체가 이 프레임으로 다시 보일 가능성이 있다.
② Lichtman — "내 직관이 맞았다"
Lichtman은 2018년부터 이 문제를 들여다본 사람이다. 그는 첫 번째 추측(2022)을 풀었고, 두 번째 추측에 대해서도 약한 상한 eγπ/4≈1.40을 갖고 있었다 (2020년 논문).
그의 코멘트 중 가장 인상적인 부분은 — "AI의 원본 출력은 사실 꽤 거칠었다(quite poor). 전문가가 한 번 정리해 줘야 진짜 의미가 보였다." — 라는 점이다. 즉 이번 사건은 "AI가 단독으로 푼 사건"이 아니라 "AI + 인간 전문가의 분업 체계가 만든 사건"이다.
③ Bloom — "대부분의 GPT 답은 문헌 검색이다"
erdosproblems.com을 운영하는 Thomas Bloom 박사는 더 신중한 입장이다. 이 한 건은 진짜지만, 같은 시기 GPT가 "풀었다"고 보고된 다른 Erdős 문제 다수는 사실 AI가 이미 출간된 논문을 찾아낸 것에 가깝다는 점을 분명히 했다.
이 구분이 중요하다.
| 진짜 새로운 증명 | 문헌 검색 결과 | "증명"이라 잘못 보고된 것 |
|---|
#1196 — 폰 망골트 + Markov chain (이 글의 사건) | 이미 풀린 문제를 GPT가 찾아 인용 | 틀린 추론을 그럴듯하게 포장 |
| 개념적 도약 ✓ | 실용적 가치는 있음 | 검증되기 전 신뢰 금지 |
④ Sawin / Barreto — "함수체에서도 보인다"
Will Sawin(Columbia)과 Barreto는 이 증명의 함수체 Fq[T] 위 버전을 곧바로 만들었다. 정수론에서는 종종 함수체 버전이 더 깔끔해 진짜 본질이 보인다 — 그리고 이번 ν도 함수체에서는 정확히 νq(f)=1/(qd(d+1))이라는 단순한 형태였다. 이는 "이 도구가 정수만의 트릭이 아니라 더 일반적인 산술 구조의 산물"임을 시사한다.
⑤ 커뮤니티 회의론 — "그래도 너무 빨리 박수치진 말자"
Hacker News 스레드에는 합리적인 회의도 많다.
- 이해관계 충돌: Lichtman은 AI 스타트업을 운영 중이고 Tao와 파트너십이 있다. 객관성 문제.
- 재현 가능성: 같은 프롬프트로 GPT-5.4 Pro가 다시 같은 결과를 줄까? 아무도 보장 못 한다.
- "공간을 핵으로 갈아엎는다(nuking the space)": AI가 1,000개 Erdős 문제를 다 휩쓸어 가면, 사람 학생들이 입문 문제로 쓸 영역이 사라진다.
이런 우려도 모두 진지하다.
제6장: 'Vibe Maths' 노하우 — 우리가 따라할 수 있는 부분
이제 실용적인 부분이다. Liam Price는 정확히 무엇을 다르게 했을까? 그리고 그 노하우 중 우리 — 수학자가 아닌 평범한 실무자 — 가 따라할 수 있는 건 무엇일까?
그가 던진 프롬프트의 정체
Price가 사용한 프롬프트는 의외로 단순했다. 인터뷰들을 종합하면 본질은 이렇다.
[Erdős Problem #1196 정의 — erdosproblems.com에서 그대로 복붙]
"이 문제를 진지하게 시도해 보세요. 가능한 모든 접근을 고려하고,
표준적인 방법으로 막히면 새로운 시각을 시도하세요."
겉보기엔 평범한 프롬프트다. 그러나 그 안에 숨어 있는 디자인 결정 4가지가 있다.
1. 문제를 그대로 인용한다
자기가 요약하지 않고, 권위 있는 출처(이 경우 erdosproblems.com)의 정의를 그대로 복사한다. AI가 정확한 문제에 락온하게 만든다.
2. "표준 방법으로 막히면 다른 시각" 명시
이게 차별점이다. AI가 첫 번째 떠오르는 길을 따라가기보다, 의식적으로 관행 밖을 살펴보게 만든다. Tao가 말한 "사람들의 mental block"을 AI에게 정확히 우회시킨 트리거.
3. 충분한 reasoning budget을 준다
GPT-5.4 Pro의 thinking 모드는 80분간 추론할 수 있다. Price는 결과를 재촉하지 않았다. AI가 충분히 'try-fail-try' 사이클을 돌게 둠.
4. 결과를 사람 전문가가 다듬는 워크플로우
AI 출력을 그대로 발표하지 않고, Barreto → Tao → Lichtman → Sawin이 차례로 다듬었다. AI는 "원광"을 캐고, 인간이 "보석"으로 가공.
누구나 적용할 수 있는 3가지 원칙
수학 문제에만 해당되는 이야기가 아니다. 이 4단계 프로세스는 사실 거의 모든 도메인의 미해결 문제에 적용된다.
원칙 1 — "권위 있는 정의"를 그대로 입력하라
문제를 자기 언어로 요약해서 던지지 마라. 가능하면 공식 문서, 표준 사양, 원본 논문 abstract를 그대로 복사 붙여넣기 하라. 이유는 단순하다 — AI가 학습 시 본 표현과 우리가 즉흥적으로 쓰는 요약은 검색 임베딩 상에서 다른 곳에 떨어진다.
실무 예: 디버깅할 때, 에러 메시지를 자기 말로 풀지 말고 원본 stack trace 그대로 붙여넣기.
원칙 2 — "표준에서 막히면 비표준" 트리거를 명시하라
Price 프롬프트의 비밀 무기는 "가능한 모든 접근을 고려하고, 표준적인 방법으로 막히면 새로운 시각을 시도하세요"라는 한 문장이다. 이건 AI가 기본 모드에서 "가장 가까운 길"로 가는 성향을 우회시킨다.
실무 예: 코드 리팩토링할 때 "표준 패턴으로 풀리면 그렇게 하고, 만약 코드 베이스가 비표준 구조라면 그에 맞춰라"를 한 문장 추가.
원칙 3 — AI 출력을 "원광"으로 보고, 사람이 "보석"으로 다듬어라
이번 사건의 진짜 메시지는 — AI가 단독으로 발견한다가 아니라, AI가 발견한 거친 광맥을, 인간 전문가의 절단·연마가 가치 있는 결과로 만든다는 것이다. Lichtman의 표현 "raw output was actually quite poor"가 정확하다.
생각 (Thought)
사람이 문제를 정의 + 권위 있는 표현으로 정리
행동 (Action)
AI가 80분 reasoning → 거친 출력
관찰 (Observe)
전문가가 핵심 아이디어 추출 → 정제된 증명
실무자가 빠지기 쉬운 3가지 함정
반대로, 이번 사건이 보여준 함정도 명확하다.
✕
함정 ① — "AI가 풀었어" 라는 단정
AI 출력은 항상 검증을 거쳐야 한다. Price가 한 일은 "AI가 풀었어!" 외치기가 아니라, Barreto에게 검토를 부탁한 것. 도메인 전문가가 한 명도 안 보고 발표한 결과는 거의 모두 틀렸다.
✓
함정 ② — "쉬워 보이는 답"의 위험
AI가 자신만만하게 출력한 답이 사실 학습 데이터에서 본 비슷한 문제의 답을 베낀 것일 수 있다(Bloom의 우려). 진짜 새로움인지 확인하려면 출력의 인용 / 참조 패턴을 따져 봐야 한다.
★
함정 ③ — "툴이 모든 걸 해결한다"는 환상
Price가 성공한 진짜 이유는 GPT-5.4 Pro가 아니라, 그 청년이 매일 Erdős 문제를 가지고 놀았다는 사실 자체. 도구는 호기심을 증폭하지, 호기심을 대체하지 않는다.
제7장: 2026년 — AI는 수학에서 어떤 위치인가
2025년 말부터 가속된 "AI for Math" 흐름
이 사건은 갑자기 튀어나온 게 아니다. 2025~2026년 사이의 흐름은 분명하다.
2024 — DeepMind AlphaProof / AlphaGeometry
Lean 형식 증명 + 강화학습으로 IMO 은메달 수준 달성. 그러나 자동화된 형식 환경 안에서만 작동.
2025 중반 — GPT-5 / Claude 4.5의 long-context reasoning
자연어 수학에서 의미 있는 진전. 그러나 진짜 새 결과는 아직 드물었음.
2025 말 — GPT-5.4 Pro의 80분 thinking 모드
"Try-fail-try" 사이클을 길게 돌릴 수 있게 됨. Price와 Barreto가 무료 ChatGPT로 Erdős 문제 사냥 시작.
2026-04 — Erdős #1196
아마추어 + AI + 사후 전문가 검증의 분업 체계로 60년 난제 해결. "Vibe Maths"라는 단어가 수학 커뮤니티에 정착.
Tao의 "스코어카드" — AI 수학의 객관적 위치
Tao는 자신의 블로그에서 AI 수학의 진전을 직접 추적해 왔다. 그의 스코어카드는 대략 이렇다.
AI의 수학 능력 — 분야별 (2026년 5월 기준 Tao 평가 종합)
개념적 도약(conceptual leap)
드물게 발생 (#1196이 첫 사례 중 하나)
완전한 형식 증명 단독 작성
아직 사람 검증 필수
요점: AI는 "발견"의 도구가 되었지만, "의미 부여"는 여전히 인간의 몫이다. GPT-5.4 Pro가 들고 온 ν는 수학적으로 정확했지만, 그것이 Erdős–Kac 정리와 어떻게 연결되는지를 알아본 건 Tao였다.
"Book Proof"의 시대 — Lichtman의 비전
Lichtman이 한 말 중 가장 가슴 뛰는 것은 — "이건 AI 시대 'Book Proof'의 첫 번째 후보다"라는 것이다. Erdős가 꿈꾼 가장 아름다운 증명들의 책에, 이번엔 AI가 발견한 페이지 하나가 추가될지 모른다.
이게 시사하는 것은 큰 그림에서 연구의 분업이 재편된다는 것이다.
이전 (~2024)
한 명의 연구자가 문제 발굴 → 가설 → 증명 → 작성 모두 담당
이후 (2026~)
아마추어/큐레이터: 문제 발굴
AI: 가설·증명 후보 생성
전문가: 의미 부여·정제
커뮤니티: 검증·일반화
이 분업은 수학자가 줄어든다는 뜻이 아니다. 전문가의 역할이 "발견자"에서 "큐레이터·번역가·의미 부여자"로 이동한다는 뜻이다. 이런 변화는 모든 지식 생산 분야에 그대로 일어날 것이다.
제8장: 한국 실무자에게 — 이 사건이 던지는 5가지 질문
이번 사건은 멀리 있는 수학 이야기가 아니다. 2026년 한국에서 R&D를, 컨설팅을, 교육을, 정책을 하는 사람에게 직접적으로 다섯 가지 질문을 던진다.
질문 1 — "당신 분야에 #1196 같은 60년 난제가 있는가?"
대부분의 분야엔 모두가 같은 길로만 들어가는 정신적 차단이 있다. 제조업의 품질 분석, 정책 분야의 인구 추정, 금융의 리스크 모형, 의료의 진단 분류 — 어디든 "표준 방법론이라 모두가 그렇게 한다"는 영역이 있다.
코어닷투데이가 제조업 AI와 의회 AI를 만들 때 가장 먼저 한 일은 — "이 도메인에서 모두가 같은 방식으로 풀고 있는데, 사실 다른 길이 더 짧지 않을까?"를 묻는 것이었다. ν 같은 숨어 있던 도구를 찾는 일이다.
질문 2 — "당신은 'Vibe X'를 시도해 봤는가?"
수학에서 Vibe Maths가 나왔다면, 다른 분야에서도 같은 일이 일어난다.
| 분야 | "Vibe X" 가능성 | 실제 사례 (2025-2026) |
|---|
| 코딩 | Vibe Coding | Cursor, Cline, Claude Code 등으로 비전공자가 production 앱 빌드 |
| 법률 | Vibe Lawyering | 변호사 보조 없이 ChatGPT로 계약서 검토 (위험성도 큼) |
| 의료 | Vibe Diagnostics | 드물게 환자 증상 검색 → AI 가설 → 의사 검증 |
| R&D | Vibe Research | 이번 #1196 사건 — 아마추어가 학계 난제 풀이 |
핵심은 — 모든 Vibe X에는 "Liam Price + Barreto + Tao + Lichtman"의 4단 분업이 똑같이 필요하다는 점이다. 아마추어 혼자, AI 혼자로는 절대 안정적인 결과가 나오지 않는다.
질문 3 — "당신 조직은 'AI 출력 → 인간 정제'의 워크플로우가 있는가?"
이 사건의 메시지는 "AI에게 던지면 끝"이 아니라 "AI에게 던진 결과를 누가 어떻게 다듬는가"다. 한국의 많은 조직이 ChatGPT를 도입하지만, raw output을 그대로 외부로 보내는 위험한 워크플로우가 흔하다.
올바른 구조는 다음과 같다.
현장에서 문제 발굴
→
AI가 1차 가설/초안 생성
→
도메인 전문가가 정제
→
팀 검증 / 외부 검토
코어닷투데이의 Fact Explorer가 정확히 이 구조를 강제한다 — AI 답변에 "출처와 신뢰도"를 항상 함께 표시해, 사람이 어디까지 믿어야 하는지를 매번 판단하게 한다.
질문 4 — "당신 분야의 '폰 망골트 함수'는 무엇인가?"
폰 망골트는 1894년부터 알려진 도구다. #1196에 적용 안 된 것은 그 도구가 부족해서가 아니라, 사람들이 떠올리지 않아서다. 모든 분야엔 이미 알려진 도구인데 지금 문제에는 시도되지 않은 것들이 가득하다.
실무 팁: 분기별로 한 번 — "우리 분야 외에서 비슷한 구조의 문제를 어떻게 푸는가"를 AI에게 물어보라. 제조업 품질 검사와 통신 신호 처리가 같은 수학 구조를 공유한다는 발견이 그렇게 일어난다.
질문 5 — "다음 'Liam Price'는 당신 조직에 있는가?"
이번 사건의 진짜 충격은 — 학위 없는 23살이 분야의 60년 난제를 풀었다는 사실이다. 더 정확히는, 그가 매일 호기심을 가지고 무료 도구로 노는 것을, 한 AI 연구자가 알아보고 Pro 계정을 선물해 주었다는 점이다.
호기심 + 적당한 도구 + 검증할 줄 아는 친구 한 명 — 이 3박자만 있으면 60년 난제도 풀 수 있다.
당신 조직에 호기심으로 가득 찬 신입사원이 있는가? 그가 AI 도구에 충분히 접근할 수 있는가? 그의 결과를 검토해 줄 도메인 전문가가 있는가? — 이 세 질문이 곧 2026년 R&D 조직의 경쟁력이다.
마치며 — 정수의 골목, 그리고 우리의 도시
수학자들이 "숫자의 해부학(anatomy of integers)"이라는 표현을 좋아한다. 모든 정수는 자신만의 골목 — 약수의 분기, 소수 거듭제곱의 자취 — 을 가지고 있고, 정수론은 그 도시 전체의 지도를 그리는 일이다.
이번 GPT-5.4 Pro의 발견이 보여준 것은 — 그 도시에 우리가 60년간 한 번도 걸어본 적 없는 거리가 있었다는 사실이다. 폰 망골트라는 가로등은 1894년부터 거기 켜져 있었고, Markov chain이라는 골목은 1906년부터 알려져 있었다. 다만 아무도 그 둘을 같이 걸어본 적이 없었다.
이게 바로 2026년 AI의 진짜 의미다. AI는 새로운 도시를 짓지 않는다 — 이미 있던 도시 안에서 우리가 가본 적 없는 골목으로 우리를 데려간다.
그리고 그 골목이 어디로 통하는지를 알아보는 일은, 여전히 사람의 몫이다.
"오늘은 #1196이지만, 내일은 무엇일까. 우리 모두는 이미 자기 분야의 #1196을 한 개씩 가지고 있다."
코어닷투데이는 이 변화의 한가운데에서, "AI가 발견하고 사람이 의미를 부여하는" 한국형 워크플로우를 만들고 있습니다. 제조업 AI, 의회 AI, Fact Explorer — 모두 이 신념의 산물입니다. 당신의 분야에 숨어 있는 #1196이 무엇인지, 함께 찾아가고 싶다면 코어닷투데이에 문의하세요.
참고 자료
1차 자료 — 사건과 증명
2차 자료 — 보도와 분석
배경 — 첫 번째 추측과 정수론 도구