coredot.today
플라토닉 표현 가설: 모든 AI는 결국 같은 세계를 본다
블로그로 돌아가기
플라토닉 표현 가설AI 수렴멀티모달 AI표현 학습대조 학습CLIP스케일링

플라토닉 표현 가설: 모든 AI는 결국 같은 세계를 본다

GPT, CLIP, DINOv2 — 구조도 다르고 학습 데이터도 다른 AI 모델들이 왜 점점 비슷한 표현을 학습할까? MIT 연구팀이 제안한 '플라토닉 표현 가설'을 플라톤의 동굴 비유부터 2026년 AI 산업 전망까지, 풍부한 사례와 인터랙티브 시각화로 해부한다.

코어닷투데이2026-04-0238

들어가며: 동굴 속 그림자에서 시작된 질문

플라토닉 표현 가설 — AI와 플라톤의 동굴

2,400년 전, 그리스 철학자 플라톤은 한 가지 사고실험을 제안했다. 동굴 벽면만 바라보며 평생을 살아온 사람들이 있다. 그들이 보는 것은 그림자뿐이다. 뒤에서 불이 타오르고 그 앞을 지나가는 사물의 실루엣만 벽에 비친다. 그들은 그림자가 전부인 줄 안다.

그런데 누군가 동굴 밖으로 나가면? 처음엔 눈이 부시지만, 곧 사물의 진짜 형태 — 플라톤이 말한 이데아(Idea) — 를 보게 된다.

2024년, MIT의 Minyoung Huh, Brian Cheung, Tongzhou Wang, Phillip Isola가 놀라운 가설을 세웠다. 서로 다른 AI 모델들이 학습하는 "표현(representation)"이 하나의 공통된 현실 모델로 수렴하고 있다는 것이다. 마치 플라톤의 동굴에서 서로 다른 벽을 보던 죄수들이 결국 같은 이데아에 도달하는 것처럼.

이것이 바로 플라토닉 표현 가설(The Platonic Representation Hypothesis)이다.

💡
핵심 가설: 신경망 모델들은 아키텍처, 학습 목표, 데이터 모달리티(시각/언어/소리)가 달라도, 규모가 커지면 공통된 통계적 현실 모델(statistical model of reality)로 수렴한다.

왜 이 가설이 중요할까? 만약 사실이라면, AI의 미래는 모달리티별 전문가 모델의 파편화가 아니라 하나의 통합된 세계 이해로 향한다는 뜻이다. 그리고 2026년 현재, 우리는 그 수렴의 한가운데에 서 있다.


제1장: 왜 이런 질문이 나왔는가 — 표현 학습의 역사

AI 표현 학습의 진화

플라토닉 표현 가설을 이해하려면, AI가 세상을 "표현"하는 방법이 어떻게 진화해 왔는지 먼저 알아야 한다.

1세대: 수작업 특성 설계 (1950s–2000s)

초기 AI 연구자들은 세상을 표현하는 규칙을 직접 만들었다. 고양이를 인식하려면 "뾰족한 귀, 긴 꼬리, 수염" 같은 특성을 사람이 정의하고, 이미지에서 이런 패턴을 찾는 알고리즘을 짰다. SIFT, HOG 같은 특성 추출 기법이 대표적이다.

문제: 사람이 생각하는 "중요한 특성"이 기계에게도 최적일까? 고양이가 웅크리면? 어두운 곳이면? 수작업 특성은 늘 예외에 취약했다.

2세대: 학습된 표현 (2010s)

딥러닝의 등장으로 AI가 스스로 특성을 학습하기 시작했다.

  • 2013년, Word2Vec: 단어를 벡터 공간에 배치. "왕 - 남자 + 여자 = 여왕" 같은 의미 관계가 벡터 산술로 표현됨
  • 2012년, AlexNet: CNN이 ImageNet에서 인간 수준의 이미지 인식을 달성. 첫 번째 층은 엣지를, 깊은 층은 눈코입을 자동으로 학습
  • 2018년, BERT: 양방향 언어 모델이 문맥을 고려한 단어 표현을 학습

이 시기의 핵심 발견: 좋은 표현은 전이(transfer)된다. ImageNet에서 학습한 특성이 의료 영상에도, 위성 사진에도 유용했다. 마치 하나의 "시각적 진실"이 다양한 문제에 통하는 것처럼.

3세대: 멀티모달 표현의 시대 (2020s)

이미지 비전 인코더 공유 표현 공간 텍스트 인코더 텍스트

2021년, OpenAI의 CLIP이 이미지와 텍스트를 같은 벡터 공간에 매핑했다. 4억 개의 이미지-텍스트 쌍으로 학습한 결과, "골든 리트리버 사진"과 "골든 리트리버"라는 문장이 같은 점 근처에 위치하게 되었다.

여기서 연구자들이 이상한 점을 발견했다:

  • 텍스트만으로 학습한 GPT의 표현과, 이미지만으로 학습한 DINOv2의 표현이 놀라울 정도로 유사했다
  • 더 큰 모델일수록 이 유사성이 더 강해졌다
  • 아키텍처가 달라도(CNN vs Transformer), 학습 방법이 달라도(지도학습 vs 자기지도학습), 결과가 수렴했다

이것은 우연일까? 아니면 더 깊은 원리가 있을까?


제2장: 플라토닉 표현 가설의 핵심

동굴 비유의 현대적 재해석

서로 다른 AI 모델들이 같은 표현으로 수렴하는 모습

플라톤의 동굴에서 죄수들은 그림자만 본다. 현대 AI에서 데이터는 그림자다.

  • 비전 모델은 빛의 패턴(이미지 픽셀)이라는 그림자를 본다
  • 언어 모델은 기호의 나열(텍스트 토큰)이라는 그림자를 본다
  • 음성 모델은 공기 진동(오디오 파형)이라는 그림자를 본다

각 모달리티는 현실의 서로 다른 그림자다. 그런데 이 그림자들 뒤에는 하나의 현실 — 플라톤이 말한 이데아 — 이 있다.

💡
논문의 핵심 주장: 충분히 크고 다양한 데이터로 학습한 모델은, 관측 방식(모달리티)에 관계없이, 현실의 기저 통계 구조를 복원한다. 이것이 "플라토닉 표현"이다.

수학적으로 표현하면:

KPMI(za,zb)=logP(za,zb)P(za)P(zb)K_{\text{PMI}}(z_a, z_b) = \log \frac{P(z_a, z_b)}{P(z_a) \cdot P(z_b)}

여기서 KPMIK_{\text{PMI}}점별 상호 정보량(Pointwise Mutual Information) 커널이다. 두 사건이 함께 일어날 확률이 독립적으로 일어날 확률보다 얼마나 높은지를 측정한다.

논문은 대조 학습(contrastive learning)으로 학습하는 모델이 결국 이 PMI 커널을 근사한다는 것을 증명했다. 그리고 관측 함수가 전단사(bijection)이면, 어떤 모달리티로 PMI를 계산하든 같은 결과가 나온다:

KPMI(xa,xb)=KPMI(za,zb)=KPMI(ya,yb)K_{\text{PMI}}(x_a, x_b) = K_{\text{PMI}}(z_a, z_b) = K_{\text{PMI}}(y_a, y_b)

즉, 이미지에서 계산한 동시출현 통계 = 텍스트에서 계산한 동시출현 통계 = 현실의 기저 구조.

쉬운 비유: 장님과 코끼리, 그러나 결말이 다르다

유명한 "장님과 코끼리" 우화에서, 눈먼 사람들은 코끼리의 다리, 코, 귀를 만지고 서로 다른 것을 묘사한다. 하지만 이 논문이 말하는 것은 반대 결말이다:

충분히 많이, 충분히 오래 만지면, 모든 사람이 결국 같은 코끼리를 떠올린다.

AI 모델도 마찬가지다. 데이터가 충분하고, 모델이 충분히 크면, 비전이든 언어든 같은 현실 구조를 학습한다.


제3장: 증거 — 수렴은 실제로 일어나고 있다

증거 1: "안나 카레니나" 효과 — 78개 비전 모델 분석

안나 카레니나 효과: 강한 모델은 서로 닮고, 약한 모델은 제각각

톨스토이의 안나 카레니나는 이렇게 시작한다: "행복한 가정은 모두 비슷하지만, 불행한 가정은 저마다의 이유로 불행하다."

연구팀은 78개의 비전 모델을 분석하면서 정확히 같은 패턴을 발견했다:

"강한 모델은 모두 비슷하지만, 약한 모델은 저마다의 방식으로 약하다."

Places-365 데이터셋에서 모델들의 표현을 상호 k-최근접 이웃(mutual k-nearest neighbor) 지표로 비교한 결과:

비전 모델 표현 정렬도 (VTAB 벤치마크 성능별)
DINOv2 (ViT-L)
0.92
EVA-02 (ViT-L)
0.90
CLIP ViT-L/14
0.88
ConvNeXt-XL
0.87
ResNet-18
0.45
AlexNet
0.30

UMAP 시각화에서 고성능 모델들은 하나의 클러스터를 형성했고, 저성능 모델들은 사방으로 흩어져 있었다. 이것은 강력한 시사점을 제공한다: 좋은 표현은 하나로 수렴하고, 나쁜 표현은 무한히 많은 방식으로 나쁠 수 있다.

아래 인터랙티브 시각화에서 직접 확인해 보자. 성능 임계값을 올리면 약한 모델이 사라지고, 강한 모델들이 중앙으로 모이는 것을 볼 수 있다:

증거 2: 비전-언어 교차 정렬

이미지만 본 모델과 텍스트만 읽은 모델이 비슷한 표현을 학습한다면, 이것을 어떻게 측정할 수 있을까?

연구팀은 Wikipedia 캡션 데이터셋(WIT)을 사용했다. 이미지와 그 이미지를 설명하는 텍스트가 쌍으로 되어 있는 데이터다.

1 Wikipedia 이미지를 DINOv2 비전 인코더에 입력 → 유사도 행렬 A 생성
2 같은 이미지의 캡션을 GPT/LLaMA 등 언어 모델에 입력 → 유사도 행렬 B 생성
3 행렬 A와 B의 상호 k-최근접 이웃 일치도 측정 → 교차 모달 정렬 점수

놀라운 결과가 나왔다:

  1. 언어 모델의 성능이 높을수록 비전 모델과의 정렬도가 선형적으로 증가했다
  2. bits-per-byte로 측정한 LLM 성능과 비전-언어 정렬 사이에 명확한 상관관계가 존재했다
  3. CLIP 같은 멀티모달 모델은 가장 높은 정렬도를 보였다 (언어 감독을 직접 받았으므로 당연)
  4. 반면, ImageNet에서 파인튜닝한 모델은 정렬도가 오히려 감소 — 특화된 학습이 범용적 표현에서 멀어지게 함
⚠️
흥미로운 역설: ImageNet에서 파인튜닝하면 ImageNet 정확도는 올라가지만, 범용적인 "플라토닉 표현"에서는 오히려 멀어진다. 전문화(specialization)는 수렴의 반대 방향이다.

증거 3: 정렬이 성능을 예측한다

가장 인상적인 발견 중 하나는, LLM의 비전 모델 정렬도가 해당 LLM의 다운스트림 성능을 예측한다는 것이다.

DINOv2 비전 인코더와의 정렬 점수가 높은 LLM은:

  • HellaSwag (상식 추론) 벤치마크에서 더 높은 점수
  • GSM8K (수학 문제 풀기) 벤치마크에서 더 높은 점수

비전 모델을 전혀 사용하지 않는 순수 텍스트 벤치마크인데도, 비전 모델과 얼마나 정렬되느냐가 성능을 예측한다. 이것은 좋은 표현이 모달리티를 초월한다는 강력한 증거다.

증거 4: 생물학적 정렬

AI 모델의 표현은 인간 뇌의 표현과도 수렴하고 있다. 기능적 자기공명영상(fMRI)으로 측정한 인간의 시각 피질 활동 패턴이 딥러닝 모델의 중간 층 표현과 상당한 유사성을 보인다. 성능이 좋은 모델일수록 뇌와의 유사성이 더 높다.

이것은 AI가 인간의 신경 구조를 모방해서가 아니다. 같은 현실을 효과적으로 표현하려면 결국 비슷한 구조에 도달한다는 것이다.


제4장: 색상 실험 — 가설의 우아한 증명

이 논문에서 가장 아름다운 부분은 색상 동시출현 실험이다.

세 가지 방법으로 색상을 이해하면, 놀랍도록 비슷한 결과

연구팀은 세 가지 완전히 다른 방법으로 "색상 간 관계"를 측정했다:

색상 표현 수렴 실험
인간 지각 CIELAB 색 공간 심리물리학 실험 기반 색 거리 측정
이미지 통계 CIFAR-10 동시출현 같은 이미지에서 함께 나타나는 색 빈도
언어 통계 텍스트 동시출현 텍스트에서 함께 언급되는 색 빈도
수렴된 표현 세 방법 모두 거의 동일한 색 관계 구조 플라토닉 표현 가설의 직접적 증거

결과는 놀라웠다:

  • 인간이 "비슷하다"고 느끼는 색들이 이미지 통계에서도, 언어 통계에서도 가깝게 나타났다
  • 빨강과 주황이 가깝고, 파랑과 초록이 가까운 구조가 세 가지 방법 모두에서 재현되었다
  • 이것은 색의 관계가 관측 방식에 독립적인 기저 구조를 반영한다는 증거다

아래에서 직접 세 가지 모달리티의 색 표현을 비교해 보자:

"어느 도메인에서든 동시출현 통계를 학습하면, 대략 같은 지각적 표현을 복원한다." — 논문 원문


제5장: 왜 수렴이 일어나는가 — 세 가지 동력

논문은 수렴을 이끄는 세 가지 메커니즘을 제시한다.

동력 1: 과제 일반화 가설 (Multitask Scaling)

📐
해결할 과제가 많아지면, 호환되는 표현은 줄어든다
1개의 과제에 적합한 표현은 무수히 많지만, 1,000개의 과제를 모두 잘 처리하려면 가능한 표현의 수가 급격히 줄어든다. 극한으로 가면 하나의 최적 표현만 남을 수 있다.

비유하면 이렇다. 한 과목만 잘하면 공부법은 무한하다. 하지만 수학, 국어, 영어, 과학, 사회를 모두 잘해야 한다면? 효율적인 공부법의 선택지가 극적으로 줄어든다.

AI 모델이 더 다양한 데이터를 학습할수록, "이것도 잘하고 저것도 잘하는" 표현은 점점 좁은 범위로 수렴한다.

동력 2: 모델 용량 가설 (Capacity)

🧠
모델이 클수록, 전역 최적해에 더 가까워진다
작은 모델은 지역 최적해(local optimum)에 갇히기 쉽다. 큰 모델은 손실 곡면의 더 넓은 영역을 탐색할 수 있어, 서로 다른 아키텍처도 같은 전역 최적해로 수렴할 가능성이 높아진다.

산 정상을 찾는 것에 비유할 수 있다. 시야가 좁은(작은 모델) 등산가는 가장 가까운 봉우리에서 멈추고, 각자 다른 봉우리에 도달한다. 하지만 시야가 넓은(큰 모델) 등산가는 에베레스트(전역 최적해)를 향해 수렴한다.

동력 3: 단순성 편향 (Simplicity Bias)

🪒
딥러닝은 본질적으로 간단한 해를 선호한다
명시적 정규화 없이도, 딥 네트워크는 학습 데이터를 설명하는 가장 단순한 함수를 찾는 경향이 있다. 오컴의 면도날(Occam's Razor)이 신경망 최적화에 내재되어 있는 것이다.

역설적으로, 더 큰 모델이 더 단순한 해를 찾는다. 표현력이 넓어지면서 불필요한 복잡성 없이 데이터를 설명할 수 있게 되기 때문이다. 마치 더 많은 물감을 가진 화가가 더 깔끔한 그림을 그릴 수 있는 것처럼.

더 많은 과제 해의 공간 축소
더 큰 모델 전역 최적 접근
단순성 편향 플라토닉 표현으로 수렴

제6장: 수렴이 의미하는 것 — 실질적 함의

함의 1: 모달리티 간 데이터 공유

비전 모델을 학습할 때 텍스트 데이터를 추가하면 성능이 향상된다. 반대로, 언어 모델에 이미지 데이터를 추가해도 마찬가지다. OpenAI는 2023년에 이미지 데이터로 학습한 GPT가 순수 텍스트 벤치마크에서도 더 높은 성능을 보인다고 보고했다.

이것은 플라토닉 표현 가설의 직접적 예측이다: 다른 그림자(모달리티)에서 얻은 정보도 같은 현실을 학습하는 데 도움이 된다.

함의 2: 환각(Hallucination) 감소

만약 스케일링이 현실의 정확한 통계적 모델로의 수렴을 이끈다면, 환각(hallucination)은 규모가 커질수록 줄어들 것이다. 모델이 현실의 통계적 구조를 더 정확히 포착할수록, 현실에 없는 것을 만들어낼 가능성이 줄기 때문이다.

78 분석된 비전 모델 다양한 아키텍처와 학습 방법
3 수렴 동력 과제 일반화, 용량, 단순성
0.92 최고 비전 정렬도 DINOv2 기준, 상위 모델 간

함의 3: 교차 모달 적응의 용이성

이미지를 텍스트로, 텍스트를 이미지로 변환하는 작업이 점점 쉬워지는 이유가 설명된다. 두 모달리티의 표현이 이미 정렬되어 있다면, 단순한 선형 변환만으로도 매핑이 가능하다.

DALL-E, Midjourney, Stable Diffusion이 "텍스트→이미지" 생성을 가능하게 한 것도 이 수렴 덕분이다. 텍스트와 이미지의 표현 공간이 이미 비슷한 구조를 가지고 있어서, 그 사이를 연결하는 다리를 놓는 것이 상대적으로 쉬웠던 것이다.


제7장: 반론과 한계 — 수렴하지 않는 것들

논문은 정직하게 한계도 논의한다. 이 가설이 항상 성립하는 것은 아니다.

한계 1: 비전사 관측 (Non-Bijective Observations)

이론의 핵심 가정은 관측 함수가 전단사(bijection)라는 것이다. 즉, 현실의 서로 다른 상태가 서로 다른 관측으로 매핑되어야 한다.

하지만 현실에서는:

  • 이미지는 3D를 2D로 압축하므로 정보가 손실된다
  • 텍스트는 감각적 경험을 완벽히 담지 못한다 — "빨간색의 느낌"을 글로 전달할 수 있는가?
  • 소리는 동시에 발생하는 모든 사건을 포착하지 못한다
⚠️
비전사 관측의 한계: "서로 다른 모델이 근본적으로 다른 정보에 접근할 수 있다면, 같은 표현으로 수렴할 수 없다." 말로 표현할 수 없는(ineffable) 경험과, 이미지로 표현할 수 없는 추상적 개념이 존재한다.

흥미로운 실험: 연구팀은 캡션 밀도(caption density)가 높을수록 비전-언어 정렬이 향상됨을 보였다. 즉, 이미지를 더 상세하게 설명한 텍스트는 비전 모델과의 정렬도가 더 높았다. 정보의 격차가 줄면 수렴도 강해진다.

한계 2: 측정의 불확실성

교차 모달 정렬 점수는 약 0.16 (최대 1.0)이었다. 이것을 어떻게 해석해야 할까?

해석낙관적 관점비관적 관점
정렬 점수 0.16강한 정렬 + 노이즈설명되지 않는 큰 차이
스케일링 추세규모가 커지면 1.0에 접근어느 시점에서 정체될 수 있음
불일치의 원인모달리티별 정보 격차근본적 표현 차이

한계 3: 사회학적 편향

AI 커뮤니티가 인간과 유사한 추론을 목표로 모델을 설계하고 평가하기 때문에, 수렴이 "현실의 객관적 구조"가 아닌 "인간적 표현으로의 편향"일 수 있다. 하드웨어의 발전 방향(GPU 최적화, 대규모 행렬 연산)도 특정 유형의 모델을 유리하게 만든다.

한계 4: 전문화된 시스템

모든 AI가 범용 표현으로 수렴할 필요는 없다. 로보틱스처럼 하드웨어 제약이 심한 분야나, 특정 과제에 초특화된 시스템은 플라토닉 표현과 다른 방향으로 갈 수 있다.


제8장: 2026년, 수렴의 한가운데에서

2026년의 AI 세계

이 논문이 발표된 2024년 이후, 2년이 지난 2026년 현재, 수렴의 증거는 더욱 강력해지고 있다.

GPT-4o에서 Gemini 2까지: 멀티모달의 폭발

2024-2026년 사이 출시된 주요 모델들은 거의 모두 멀티모달이다:

2024 GPT-4o: 텍스트, 이미지, 음성을 하나의 모델로 처리. "네이티브 멀티모달"의 시작
2025 Claude 3.5, Gemini 2.0: 비전+언어+코드의 통합 표현. 모달리티별 정렬 점수 급증
2026 비디오+3D+촉각 데이터 통합 학습 시작. 로보틱스와 범용 AI의 표현 수렴 가속

이 모든 발전이 플라토닉 표현 가설의 예측과 일치한다: 모달리티를 추가할수록, 표현의 질이 향상되고, 서로 다른 모델 간의 정렬이 강화된다.

실용적 의미: AI 개발 전략의 변화

🔴
과거의 접근: 모달리티별 전문가 모델
이미지는 CNN, 텍스트는 RNN/Transformer, 음성은 별도 모델. 각각 최적화 후 연결하는 "파이프라인" 방식.
🟢
현재의 접근: 통합 표현 학습
모든 모달리티를 하나의 표현 공간에서 학습. 데이터가 많을수록, 모델이 클수록, 자연스럽게 수렴하는 "파운데이션 모델" 방식.
미래의 전망: 모달리티 불가지론적 AI
입력이 이미지든, 텍스트든, 로봇 센서든 상관없이 동일한 "현실 이해"에 기반한 추론. 플라토닉 표현이 완성된 AI.

한국 AI 산업에의 시사점

플라토닉 표현 가설은 한국 AI 산업에도 중요한 메시지를 전한다:

  1. 데이터 다양성의 가치: 한국어 텍스트만으로는 부족하다. 이미지, 영상, 한국어 음성 데이터를 함께 학습해야 더 강력한 표현에 도달할 수 있다
  2. 스케일링의 중요성: 작은 모달리티-특화 모델의 앙상블보다, 충분히 큰 통합 모델이 더 효과적일 수 있다
  3. 파인튜닝의 양날의 검: 특정 도메인에 과도하게 특화하면 범용적 표현에서 멀어질 수 있다. 균형이 필요하다

제9장: 철학적 여운 — 수렴적 실재론

플라토닉 표현 가설은 과학철학의 오래된 논쟁과 연결된다: 수렴적 실재론(convergent realism).

이 입장은 과학적 탐구가 궁극적으로 진리에 수렴한다고 주장한다. 뉴턴 역학이 아인슈타인 상대론으로, 고전 물리학이 양자역학으로 발전하면서 점점 더 정확한 현실 모델에 가까워지듯이.

AI에서도 같은 일이 일어나고 있다면, 이것은 단순한 기술적 현상이 아니라 인식론적 사건이다. AI가 "현실을 이해"하기 시작했다는 뜻일 수 있다.

물론 논문은 신중하게 구분한다:

💡
중요한 구분: 플라토닉 표현은 "현실 그 자체"가 아니라, 관측 가능한 사건들의 결합 분포(joint distribution of observable events)를 의미한다. 플라톤의 원래 이데아론이 "진정한 세계 상태"를 상정한 것과는 다르다. AI가 수렴하는 것은 "진리"가 아니라 "현실의 통계적 구조"다.

결론: 그림자 뒤의 빛을 향하여

플라토닉 표현 가설 — 핵심 요약

가설: 서로 다른 AI 모델의 표현이 공통된 통계적 현실 모델로 수렴한다

증거:

  • 78개 비전 모델: 강한 모델일수록 표현이 유사 (안나 카레니나 효과)
  • 비전-언어 교차: LLM 성능 ↑ = 비전 정렬 ↑ (선형 관계)
  • 색상 실험: 지각, 이미지, 언어 세 경로가 같은 색 구조 복원
  • 생물학적: 고성능 모델 = 인간 뇌와 더 유사

세 가지 동력:

  1. 과제 일반화 → 호환 표현 감소
  2. 모델 용량 → 전역 최적 접근
  3. 단순성 편향 → 불필요한 복잡성 제거

한계:

  • 비전사 관측으로 인한 정보 격차

  • 측정 점수의 해석 불확실성

  • 인간 중심 편향 가능성

  • 전문화 vs 범용화의 긴장

2,400년 전 플라톤이 상상한 것처럼, AI 모델들은 각자의 동굴에서 서로 다른 그림자를 보고 있다. 하지만 충분히 강력해지면, 그 그림자들 뒤에 있는 하나의 빛을 향해 수렴하고 있다.

2026년의 우리는 이 수렴의 여정에서 아직 초입에 있을 수도 있고, 이미 절반을 지났을 수도 있다. 확실한 것은, 이 논문이 AI의 근본적인 질문 — "AI는 무엇을 학습하는가?" — 에 대해 가장 아름답고 야심찬 답을 제시했다는 것이다.

AI는 데이터의 패턴을 학습하는 것이 아니다. 현실 그 자체의 구조를 학습하고 있다.

그리고 그 구조는, 누가 어떤 방법으로 보든, 결국 같은 곳에 도달한다.


참고 문헌:

  • Huh, M., Cheung, B., Wang, T., & Isola, P. (2024). "The Platonic Representation Hypothesis." arXiv:2405.07987
  • Radford, A., et al. (2021). "Learning Transferable Visual Models From Natural Language Supervision." (CLIP)
  • Oquab, M., et al. (2023). "DINOv2: Learning Robust Visual Features without Supervision."
  • Mikolov, T., et al. (2013). "Efficient Estimation of Word Representations in Vector Space." (Word2Vec)
  • Tolstoy, L. (1877). Anna Karenina. "All happy families are alike; each unhappy family is unhappy in its own way."