coredot.today
PINN vs Neural Operator vs KAN — 물리 시뮬레이션을 대체할 AI는 누구인가
블로그로 돌아가기
PINNNeural OperatorKANFNODeepONet편미분방정식물리 시뮬레이션과학 AIPhysics-ML

PINN vs Neural Operator vs KAN — 물리 시뮬레이션을 대체할 AI는 누구인가

편미분방정식(PDE)을 풀기 위한 세 가지 AI 패러다임 — 물리법칙을 손실함수에 넣는 PINN, 함수 공간 간의 매핑을 학습하는 Neural Operator, 해석 가능한 스플라인 엣지를 학습하는 KAN — 을 원리·벤치마크·한계·산업 적용까지 깊이 비교합니다.

코어닷투데이2026-04-0466

들어가며: 슈퍼컴퓨터 대 신경망

2019년, 한 편의 논문이 계산물리학의 풍경을 바꿔놓았습니다. 브라운 대학교의 Maziar Raissi, Paris Perdikaris, George Em Karniadakis — 이 세 사람이 Journal of Computational Physics에 발표한 Physics-Informed Neural Networks(PINN) 논문은, 신경망이 편미분방정식(PDE)을 "격자(mesh) 없이" 풀 수 있다는 가능성을 보여주었습니다.

1년 뒤인 2020년, 칼텍의 Zongyi Li 등이 Fourier Neural Operator(FNO)를 제안하면서 새로운 질문이 등장합니다: "한 번의 학습으로 모든 파라미터 조건의 해를 한꺼번에 배울 수는 없을까?" 2024년에는 MIT의 Ziming Liu 등이 KAN(Kolmogorov-Arnold Network)을 발표하며, "더 적은 파라미터로 더 높은 정확도와 해석 가능성"이라는 세 번째 선택지를 제시합니다.

이 글은 PINN, Neural Operator(FNO, DeepONet), KAN — 물리 시뮬레이션을 위한 세 가지 AI 패러다임을 원리, 벤치마크 수치, 한계, 실제 적용 사례까지 종합적으로 비교합니다.


PINN — 물리법칙을 품은 신경망이 유체 시뮬레이션을 학습하는 모습

1장. PINN — 손실함수에 물리법칙을 넣다

1.1 역사: Lagaris (1998) → Raissi (2019)

신경망으로 미분방정식을 푸는 아이디어는 PINN보다 20년 앞서 있습니다. 1998년, 그리스 이오아니나 대학교의 Isaac Lagaris, Aristidis Likas, Dimitrios FotiadisIEEE Transactions on Neural Networks에 발표한 논문이 최초입니다. 이들의 핵심 아이디어: 해를 경계조건을 만족하는 항 + 신경망이 학습하는 항의 합으로 표현한 것입니다.

그로부터 21년 뒤, Raissi 등의 2019년 논문이 이 아이디어를 현대 딥러닝 프레임워크 위에서 체계화합니다. 이 논문이 바로 PINN의 정식 탄생입니다.

왜 20년이 걸렸는가? Lagaris (1998)의 시대에는 자동 미분(automatic differentiation)이 없었습니다. 미분을 수작업으로 유도해야 했고, GPU 가속도 불가능했습니다. TensorFlow(2015), PyTorch(2016)의 등장이 PINN을 실현 가능하게 만든 결정적 요인입니다.

1.2 PINN의 작동 원리

PINN의 핵심은 손실함수 설계에 있습니다. 일반적인 PDE를 N[u]=0\mathcal{N}[u] = 0이라 할 때:

Ltotal=λrLPDE+λbLBC+λdLdata\mathcal{L}_{\text{total}} = \lambda_r \mathcal{L}_{\text{PDE}} + \lambda_b \mathcal{L}_{\text{BC}} + \lambda_d \mathcal{L}_{\text{data}}

PINN 손실함수의 세 구성요소
PDE 잔차 손실
$\mathcal{L}_{\text{PDE}} = \frac{1}{N_r}\sum_{i=1}^{N_r}|\mathcal{N}[u_\theta](x_i)|^2$ — 영역 내부 collocation 포인트에서 PDE를 얼마나 만족하는가
경계/초기 조건 손실
$\mathcal{L}_{\text{BC}} = \frac{1}{N_b}\sum_{j=1}^{N_b}|u_\theta(x_j) - g(x_j)|^2$ — 경계와 초기 조건을 얼마나 만족하는가
데이터 손실 (선택)
$\mathcal{L}_{\text{data}} = \frac{1}{N_d}\sum_{k=1}^{N_d}|u_\theta(x_k) - u_{\text{obs}}(x_k)|^2$ — 관측 데이터와의 일치 (역문제에 필수)

자동 미분(autodiff)이 핵심 기술입니다. 신경망 uθ(x,t)u_\theta(x, t)의 편미분 u/t\partial u/\partial t, 2u/x2\partial^2 u/\partial x^2 등을 프레임워크가 자동으로 계산합니다. 유한차분법처럼 격자를 짤 필요가 없습니다 — 이것이 PINN이 메시 프리(mesh-free) 방법인 이유입니다.

1.3 Raissi (2019)의 원본 결과

Raissi 등은 여러 고전적 PDE에서 PINN의 성능을 검증했습니다:

PDE상대 L2 오차네트워크 구조의미
Burgers 방정식1.97 × 10⁻³8층, 뉴런 20개충격파(shock) 포착 성공
비선형 Schrödinger 방정식1.97 × 10⁻³5층, 뉴런 100개양자역학적 파동 재현
Allen-Cahn 방정식6.99 × 10⁻³4층, 뉴런 200개상전이 경계면 학습
Navier-Stokes 방정식4.9 × 10⁻⁴8층, 뉴런 40개비압축성 유체 유동

이 숫자들은 인상적이지만, 곧 밝혀지듯 특정 조건에서만 달성됩니다.

1.4 PINN의 치명적 한계: 스펙트럴 바이어스와 훈련 실패

PINN의 실제 적용을 가로막는 문제들이 2020년 이후 속속 보고되었습니다:

1) 스펙트럴 바이어스(Spectral Bias)

신경망은 저주파 성분을 먼저 학습하고, 고주파 성분을 학습하는 데 극도로 느립니다. 난류, 충격파, 다중 스케일 현상에서 치명적입니다.

2) 손실 경관(Loss Landscape)의 병적 구조

PDE 잔차에 미분 연산자가 포함되면서, 손실 경관이 극도로 ill-conditioned해집니다. PDE 손실과 경계조건 손실의 수렴 속도 불균형이 발생하여 훈련이 정체됩니다.

3) 비선형·고주파·다중스케일 문제에서의 실패

PDE 계수가 커지거나, 비선형성이 강해지면 PINN의 수렴이 급격히 어려워집니다. 난류 유동(turbulent flow), 강성(stiff) PDE, 카오스 시스템에서 종종 수렴에 실패합니다.

2025년의 흥미로운 발견: Xie et al. (2025)은 PINN 훈련 실패의 진짜 원인이 조기 종료(early stopping)일 수 있음을 보였습니다. FP64(배정밀도) 연산으로 전환하면, 특별한 아키텍처 없이도 vanilla PINN이 최신 기법들을 능가한다는 결과입니다.

1.5 PINN 개선 기법의 진화 (2020-2026)

2020
적응적 가중치(Adaptive Weighting) — McClenny & Braga-Neto: 각 collocation 포인트에 개별 학습 가능한 가중치를 부여. NTK(Neural Tangent Kernel) 분석 기반.
2021
인과적 훈련(Causal Training) — Wang et al.: 시간 방향의 인과성을 존중하는 가중치 부여. 초기 시간 → 후기 시간 순서로 학습.
커리큘럼 학습(Curriculum Learning) — Krishnapriyan et al.: 대류-반응-확산 시스템에서 오차 1~2 자릿수 감소.
2022
Self-Adaptive PINN — 자기적응형 가중치가 NTK 고유값 분포를 평탄화시켜, 손실 구성요소 간 수렴 속도 균형을 맞춤.
2024
RBA-PINN (잔차 기반 어텐션), Co-training PINN 등 등장. Multistage PINN: 표준 PINN 대비 훈련 시간 90% 이상 단축하면서 FEM과 동등한 정확도.
2025
PirateNets: 잔차 연결 기반 물리정보 딥러닝. Separable PINNs: 고차원 문제(3D Helmholtz, 4D Navier-Stokes)에서 60배 속도 향상.

1.6 실제 적용 사례

PINN은 다음 영역에서 활발히 연구·적용되고 있습니다:

  • 유체역학: 비압축성 유동, 난류 시뮬레이션, 심혈관 혈류 역학
  • 열전달: 전자 장치 열 관리(ETM), 푸리에 열전도, 복합 열물리 모델
  • 재료과학: 다중스케일 모델링, 결함 탐지, 파괴·손상 해석, 구성 관계 역문제
  • 에너지: 풍력 터빈 예측(2023), 태양열 집열기 효율(2023), 지열 모델링(2025)
  • 석유·가스: 도메인 분해 기반 PINN으로 희소 생산 데이터 기반 저수지 시뮬레이션
  • 항공우주: NASA의 가스 터빈 엔진 열 관리 시스템(2024)

Neural Operator — 다양한 입력 함수를 한 번에 처리하는 마법의 기계

2장. Neural Operator — 함수 공간의 매핑을 학습하다

2.1 패러다임의 전환: "해" 대신 "연산자"를 배우다

PINN의 근본적 한계 중 하나: 파라미터가 바뀔 때마다 처음부터 다시 훈련해야 합니다. 초기조건이 달라지면? 경계조건이 바뀌면? 새로운 PINN을 훈련해야 합니다.

Neural Operator는 이 문제를 정면으로 해결합니다:

P
PINN의 문제
하나의 특정 PDE 인스턴스에 대해 해 $u(x)$ 하나를 학습. 파라미터 변경 시 재훈련 필요.
S
Neural Operator의 해법
입력 함수 공간 → 출력 함수 공간의 연산자(operator) $\mathcal{G}_\theta: \mathcal{A} \to \mathcal{U}$를 학습. 한 번 학습하면 모든 새로운 입력에 대해 즉시 추론.
R
결과
새로운 초기조건/경계조건에 대해 0.005초로 추론 가능 (기존 수치 솔버 대비 ~60,000배 가속).

2.2 FNO: 푸리에 공간에서 연산자 학습

Fourier Neural Operator(FNO)는 2020년 10월 칼텍의 Zongyi Li, Nikola Kovachki, Kamyar Azizzadenesheli, Anima Anandkumar 등이 발표하고, ICLR 2021에 채택된 논문입니다.

핵심 아이디어: 적분 커널을 직접 푸리에 공간에서 파라미터화합니다. 이산화 방식에 무관하게 동일한 학습된 파라미터를 공유하므로, 훈련 해상도와 다른 해상도에서도 평가 가능합니다(zero-shot super-resolution).

입력 $a(x)$
리프트(Lift) $P$
푸리에 층 ×4
FFT → 가중치 → IFFT + 비선형
프로젝트(Project) $Q$
출력 $u(x)$

FNO의 정량적 성능 (Li et al., 2021)

PDE / 설정ResNetU-NetTF-NetFNO
Burgers (s=421)0.0098
Darcy Flow (s=8192)0.0139
Navier-Stokes (ν=10⁻³)0.07010.02450.02250.0086
Navier-Stokes (ν=10⁻⁴)0.23110.11900.11680.0820
Navier-Stokes (ν=10⁻⁵)0.27530.19820.22680.1556

기존 방법 대비: Burgers에서 30% 낮은 오차, Darcy Flow에서 60% 낮은 오차, Navier-Stokes 난류 영역에서 30% 낮은 오차. 추론 속도는 256×256 격자에서 0.005초 — 의사-스펙트럴 방법의 2.2초 대비 ~440배 빠릅니다.

FNO의 핵심 강점

FNO의 차별화 특성
해상도 불변성
64×64로 학습 → 256×256에서 평가 가능 (zero-shot super-resolution)
파라미터 효율성
FNO-3D: ~6.56M 파라미터 vs U-Net: ~24.95M 파라미터
푸리에 공간 학습
주파수 도메인에서 직접 학습하여 전체 주파수 스펙트럼에 걸쳐 ~4×10⁻⁴의 일관된 오차

2.3 DeepONet: 범용 연산자 근사의 이론적 기반

DeepONet은 브라운 대학교의 Lu Lu, Pengzhan Jin, Guofei Pang, George Em Karniadakis 등이 2021년 Nature Machine Intelligence에 발표했습니다.

이론적 기반: 1995년 Tianping Chen & Hong Chen의 연산자의 범용 근사 정리(Universal Approximation Theorem of Operators) — 단일 은닉층 신경망으로 임의의 비선형 연속 연산자를 근사할 수 있다는 정리입니다.

Branch Net
입력 함수 인코딩
$[u(x_1), ..., u(x_m)]$
내적(dot product)
Trunk Net
출력 위치 인코딩
$(y_1, y_2, ..., y_n)$

Branch Network가 이산화된 입력 함수 공간을 인코딩하고, Trunk Network가 출력 함수의 도메인(좌표)을 인코딩합니다. 두 네트워크의 출력을 내적하면 원하는 위치에서의 해를 얻습니다.

DeepONet vs FNO: 16개 벤치마크 종합 비교

Lu et al. (2022)은 Computer Methods in Applied Mechanics and Engineering에서 16개 벤치마크로 두 연산자를 공정 비교했습니다:

특성DeepONetFNO
단순 설정 성능양호양호 (동등)
복잡 기하학강건함성능 저하
노이즈 민감도0.1% 노이즈에도 안정적0.1% 노이즈로 오차 10,000배 증가
이론적 근거연산자의 범용 근사 정리유사한 오차 한계 (동등)
입력 유연성비정형 격자 지원정형(uniform) 격자 필요

핵심 발견: 단순한 문제에서는 FNO와 DeepONet이 비슷하지만, 복잡 기하학과 노이즈가 있는 환경에서 DeepONet이 훨씬 강건합니다.

2.4 차세대 Neural Operator: GNOT, Transolver, GINO

2023~2025년 사이 Neural Operator 분야는 빠르게 진화했습니다:

모델발표핵심 혁신성능
GNOTICML 2023Heterogeneous Normalized Attention (HNA) — 선형 복잡도로 임의 입력 처리유체·열·전자기 7개 데이터셋 SOTA
TransolverICLR 2024학습 가능한 슬라이스(slice)로 물리적 상태 포착, 내재적 물리 상관관계 모델링6개 벤치마크 일관된 SOTA
GINO2024Geometry-Informed Neural Operator — 비정형 격자와 비직사각형 도메인복잡 기하학에서 FNO 대비 우위
Neural Spectral MethodsICLR 2024직교 기저 기반 스펙트럼 손실, 파르세발 항등식 활용기존 ML 방법 대비 정확도 1~2 자릿수 향상

2.5 PINO: PINN과 Neural Operator의 하이브리드

Physics-Informed Neural Operator(PINO)는 훈련 데이터와 물리 제약을 동시에 활용합니다. 핵심 전략: 저해상도 훈련 데이터 + 고해상도 PDE 제약으로 연산자를 학습합니다.

PINO는 PINN이 실패하는 장시간 과도 유동(long temporal transient flow)카오스 콜모고로프 유동(chaotic Kolmogorov flow)에서 합리적인 정확도를 달성합니다. PINN과 달리, 한 번 학습 후 새로운 파라미터에 대해 즉시 추론이 가능하면서도 물리적 일관성을 유지합니다.


3장. KAN — 엣지가 학습하는 해석 가능한 신경망

3.1 KAN이 과학 컴퓨팅에 매력적인 이유

KAN의 핵심 특성이 과학 문제와 왜 잘 맞는지는 이전 글("콜모고로프-아르놀드 정리 완전 해부")에서 다뤘습니다. 여기서는 PDE 풀이에서의 성능에 집중합니다.

KAN이 과학 컴퓨팅에서 주목받는 세 가지 이유:

KAN의 과학 컴퓨팅 적합성
해석 가능성
엣지의 스플라인 함수를 시각화하고 기호식으로 변환 가능 → 물리 법칙 발견
파라미터 효율성
MLP 대비 10~100배 적은 파라미터로 동등 이상의 정확도 (얕은 네트워크에서 특히 유리)
과학적 발견
보존량, 라그랑지안, 대칭성, 구성 법칙을 자동으로 발견

3.2 KINN: KAN + PINN 결합

2024년 6월, Wang et al.은 KINN(Kolmogorov-Arnold-Informed Neural Network)을 제안했습니다 — PINN의 MLP를 KAN으로 대체하는 접근입니다. Computer Methods in Applied Mechanics and Engineering에 게재되었습니다.

테스트한 문제 유형: 다중스케일, 특이점(singularity), 응력 집중, 비선형 초탄성, 이종 재료, 복잡 기하학.

핵심 결과: KINN이 MLP 기반 PINN 대비 정확도와 수렴 속도에서 대부분 유의미하게 우수. 단, 복잡 기하학 문제는 예외.

3.3 ChebPIKAN: 체비셰프 다항식 기반 물리정보 KAN

2024년 11월, ChebPIKAN(Physics-informed Kolmogorov-Arnold Network with Chebyshev Polynomials)이 유체역학 문제에서 상세한 벤치마크를 제시했습니다 (NVIDIA RTX 4090, 10,000 에폭):

PDE (최적 구조)KAN 평균 잔차ChebPIKAN 평균 잔차개선율
Allen-Cahn (4층)6.14%0.34%18배
Burgers (3층)13.67%1.13%12배
Helmholtz (3층)29.90%4.29%7배
Navier-Stokes 속도 u (2층)15.09%3.34%4.5배
Navier-Stokes 속도 v (2층)38.39%8.46%4.5배
Navier-Stokes 압력 p (2층)39.45%10.85%3.6배

주목할 점: KAN은 깊이가 증가하면 과적합과 불안정이 심해지는 반면, ChebPIKAN은 깊이 증가에도 안정적입니다. 그러나 2D 시간 의존 문제(Navier-Stokes)에서의 손실은 ~10⁻¹ 수준으로, 1D 문제의 ~10⁻³ 대비 아직 개선 여지가 큽니다.

3.4 KAN 2.0: 과학적 발견 프레임워크

Ziming Liu et al.의 "KAN 2.0: Kolmogorov-Arnold Networks Meet Science"(Physical Review X, 2024)는 KAN을 과학적 발견 도구로 확장했습니다:

1단계
관련 특성 식별 — 2D 조화진동자에서 세 가지 보존량(x방향 에너지 $H_1$, y방향 에너지 $H_2$, 각운동량 $H_3$) 자동 발견.
2단계
모듈 구조 발견 — 곱셈적 분리가능성, 계층적 대칭 구조를 자동으로 식별.
3단계
기호식 발견 — Feynman 데이터셋 120개 방정식에서 기호 회귀 성공. 상대론적 질량 $m = m_0/\sqrt{1-(v/c)^2}$ 등의 공식을 $10^{-6}$ 손실로 복원.

이것이 KAN의 가장 독보적인 가치입니다: 단순히 PDE를 푸는 것을 넘어, 데이터에 숨겨진 물리 법칙 자체를 발견합니다.


세 로봇의 우정 어린 경쟁 — PINN, Neural Operator, KAN이 시상대에서 악수하고 있다

4장. 정면 비교: PINN vs Neural Operator vs KAN

4.1 패러다임 비교

기준PINNNeural Operator (FNO/DeepONet)KAN (KINN)
학습 대상특정 PDE의 해 $u(x)$함수→함수 연산자 $\mathcal{G}$특정 PDE의 해 (해석 가능한 형태)
물리 반영 방식손실함수에 PDE 잔차 포함데이터에서 암묵적 학습 (PINO는 명시적)손실함수에 PDE 잔차 포함 (PINN과 동일)
훈련 데이터 필요량0 (순수 물리 기반 가능)대량 (수천~수만 시뮬레이션)0 (순수 물리 기반 가능)
새 파라미터 일반화재훈련 필요즉시 추론 가능재훈련 필요
해석 가능성블랙박스블랙박스엣지 함수 시각화, 기호식 추출 가능
추론 속도빠름 (단일 전방 패스)매우 빠름 (0.005초)보통 (스플라인 평가 오버헤드)

4.2 속도 비교

추론 속도 비교 (256×256 Navier-Stokes, 단일 GPU)
수치 솔버 (DNS)
~300초
기준선
PINN (훈련된 모델)
~1초
~300× 가속
FNO (추론)
0.005초
~60,000× 가속

단, 이 비교에는 중요한 맥락이 있습니다: PINN은 훈련 시간이 길지만 데이터가 불필요, FNO는 추론이 극빠르지만 대량의 훈련 데이터 생성 비용이 든다는 것입니다.

4.3 정확도 비교

Navier-Stokes 상대 L2 오차 비교 (ν=10⁻³, 낮을수록 좋음)
ResNet
0.0701
U-Net
0.0245
TF-Net
0.0225
PINN (Raissi 원본)
0.0049
최고 정확도
FNO-3D
0.0086

PINN은 단일 인스턴스에서는 매우 높은 정확도를 달성하지만, FNO는 파라미터가 변하는 모든 조건을 한 모델로 커버합니다. 사과와 오렌지를 비교하는 것이므로 주의가 필요합니다.

4.4 확장성과 데이터 효율성

기준PINNNeural OperatorKAN
3D+ 확장collocation 포인트 폭증 → 느림선형 스케일링 가능스플라인 평가 비용 → 현재 2D까지 실용적
데이터 요구량0개 (PDE만으로 충분)수천~수만 시뮬레이션 쌍0개 (PDE만으로 충분)
역문제(Inverse)자연스러운 지원추가 설계 필요자연스러운 지원 + 해석 가능
고차원 문제차원의 저주 영향Separable 구조로 완화차원의 저주 영향 심함

4.5 어떤 방법을 언제 사용할까?

P
PINN을 선택할 때
• 특정 PDE 인스턴스 1~2개만 풀면 될 때
• 훈련 데이터가 전혀 없거나 매우 적을 때
• 역문제(파라미터 추정)가 주 목적일 때
• 물리 법칙을 엄격히 만족해야 할 때
S
Neural Operator를 선택할 때
• 다양한 파라미터/조건에서 반복 추론이 필요할 때
• 충분한 시뮬레이션 데이터를 생성할 수 있을 때
• 실시간 추론 속도가 중요할 때 (디지털 트윈, 제어)
• 3D 대규모 문제일 때
R
KAN을 선택할 때
• 물리 법칙 자체를 발견하고 싶을 때 (기호 회귀)
• 모델의 내부 작동을 사람이 이해해야 할 때
• 파라미터가 극소한 모델이 필요할 때
• 1~2D, 비교적 간단한 PDE일 때

5장. LoRA와의 연결: 물리 모델의 효율적 적응

5.1 LoRA의 핵심 아이디어

LoRA(Low-Rank Adaptation)는 Hu et al. (2021)이 제안한 파라미터 효율적 미세조정 기법입니다. 사전훈련된 모델의 가중치 행렬 W0W_0를 고정하고, 저랭크 분해 ΔW=AB\Delta W = AB (ARd×rA \in \mathbb{R}^{d \times r}, BRr×dB \in \mathbb{R}^{r \times d}, rdr \ll d)만 학습합니다.

GPT-3 175B 기준: 전체 미세조정 대비 학습 파라미터 10,000배 감소, GPU 메모리 3배 절약.

5.2 과학 컴퓨팅에서 LoRA의 가능성

과학 컴퓨팅에서 LoRA의 적용은 아직 초기 단계이지만, 강력한 잠재력이 있습니다:

LoRA × Physics-ML 응용 시나리오
Foundation Model 적응
Poseidon 같은 PDE 파운데이션 모델을 특정 물리 도메인에 LoRA로 미세조정. 전체 재훈련 없이 새 PDE에 적응.
Weather Model 특화
Aurora, GenCast 같은 대규모 기상 모델을 지역 기후·대기질·해양파 예측에 LoRA 기반 전이학습.
Neural Operator 도메인 적응
범용 FNO를 특정 산업 도메인(반도체 열관리, 항공기 공력 등)에 소량 데이터로 적응.

5.3 KAN과 LoRA의 구조적 유사성

흥미로운 연결: KAN의 B-스플라인 엣지 함수는 LoRA처럼 "기저 함수의 가중합"으로 표현됩니다. KAN에서 격자 확장(grid extension)은 LoRA에서 랭크(rank) 증가와 개념적으로 유사합니다 — 둘 다 표현력을 점진적으로 늘려가는 전략입니다.

이전 글("LoRA까지 이어지는 수학 여행")에서 범용 근사 정리 → 저랭크 근사의 수학적 맥락을 다뤘습니다. 이 맥락에서 KAN → LoRA → Neural Operator 적응은 하나의 수학적 연속선 위에 놓여 있습니다.


과학 AI의 파운데이션 모델 시대 — AI 위성이 지구의 날씨를 초 단위로 예측한다

6장. 2025~2026년 현재: 과학 AI의 파운데이션 모델 시대

6.1 기상 예측의 혁명

과학 AI의 가장 극적인 성공 사례는 기상 예측입니다:

모델개발핵심 수치특이사항
FourCastNet 3NVIDIA, 202460일 예보를 단일 GPU에서 4분 이내구면 신경 연산자 기반, 확산 모델 대비 8~60배 빠름
GenCastDeepMind, 2024ECMWF ENS 대비 97.2% 높은 정확도 (15일 예보)확률적 앙상블 예측, 8분 만에 15일 예보, Nature 게재
AuroraMicrosoft, 2025IFS 대비 ~5,000배 연산 비용 절감100만 시간 이상 지구물리 데이터로 사전훈련, Nature 게재

이 모델들의 공통점: Neural Operator 아키텍처 + 대규모 사전훈련 + 파운데이션 모델 패러다임. FourCastNet은 AFNO(Adaptive Fourier Neural Operator) 기반이고, Aurora는 트랜스포머 기반이며, GenCast는 확산 모델 기반입니다.

6.2 Poseidon: PDE 파운데이션 모델

2024년 NeurIPS에서 발표된 Poseidon은 PDE 풀이 전용 파운데이션 모델입니다. 압축성 오일러 방정식과 비압축성 Navier-Stokes 방정식으로 사전훈련한 뒤, 다양한 하류 PDE 작업에 적응합니다.

Poseidon의 샘플 효율성 — FNO 대비 필요 훈련 샘플 수 (1024개 기준)
FNO (기준)
1,024 샘플
Poseidon-L (중앙값)
20 샘플
~50× 적음
Poseidon-L (최선)
3 샘플
~340× 적음

모델 규모: Poseidon-T(21M), Poseidon-B(158M), Poseidon-L(629M) 파라미터. 15개 하류 작업 중 13개에서 FNO 대비 10배 이상 적은 샘플로 동일 오차 달성. 사전훈련에 없던 완전히 새로운 PDE(파동 방정식, Allen-Cahn, 포아송, 헬름홀츠)에서도 8개 작업에서 최고 성능.

6.3 NVIDIA PhysicsNeMo: 산업 규모의 Physics-ML

NVIDIA는 Modulus에서 이름을 바꾼 PhysicsNeMo를 오픈소스 Physics-ML 플랫폼으로 제공합니다. PINN, FNO, GNN, 확산 모델을 모두 지원하며, DGX 인프라에서 산업 규모의 디지털 트윈 구축을 목표로 합니다.

지원 도메인: CFD(전산유체역학), 구조역학, 전자기학, 저수지 모델링.

6.4 PDEBench: 공정한 벤치마킹

NeurIPS 2022에서 발표된 PDEBench는 FNO, U-Net, PINN을 포함한 과학 ML 모델의 표준 벤치마크입니다. 2024년의 후속 연구 PDENNEval은 12개 신경망 방법을 11개 수역학 PDE에서 체계적으로 평가했습니다.

핵심 발견: FNO는 주파수 스펙트럼 전반에 걸쳐 ~4 × 10⁻⁴의 일관된 오차를 보이며, PINN은 고주파 특성을 예상보다 잘 처리합니다. 그러나 압축성 Navier-Stokes 같은 복잡한 PDE는 모든 기준 모델에게 여전히 도전적입니다.


하이브리드 AI의 미래 — 물리학, 연산자, 스플라인 세 조각이 하나의 다이아몬드로 완성된다

7장. 하이브리드의 미래 — 세 방법은 경쟁이 아닌 융합으로 향한다

7.1 현재 진행 중인 융합

PINN
(물리 제약)
+
Neural Operator
(연산자 학습)
=
PINO
물리+데이터 하이브리드
KAN
(해석 가능 아키텍처)
+
PINN
(물리 손실함수)
=
KINN / ChebPIKAN
해석 가능한 물리 학습
Foundation Model
(대규모 사전훈련)
+
LoRA
(효율적 적응)
=
Poseidon/Aurora
범용 과학 AI

7.2 앞으로의 핵심 질문들

Physics-ML 분야의 미해결 과제
물리적 일관성 보장
Neural Operator가 보존법칙(에너지, 질량, 운동량)을 항상 만족하도록 아키텍처 수준에서 보장하는 방법은?
불확실성 정량화
GenCast처럼 앙상블 기반 확률적 예측을 PDE 솔버에 일반화하는 방법은?
KAN의 확장성
KAN의 훈련 비용 문제를 해결하여 대규모 3D 문제에도 적용 가능하게 만드는 방법은?

마치며: "수치해석은 죽는가?"

결론부터 말하면, 아니다. 오히려 수치해석과 AI의 시너지가 Physics-ML의 핵심입니다.

  • PINN은 수치해석의 수학적 구조를 손실함수에 직접 넣음으로써 강력합니다.
  • Neural Operator는 기존 수치 솔버가 생성한 데이터로 학습합니다.
  • KAN은 수치해석이 밝혀낸 물리 법칙의 구조를 자동으로 재발견합니다.

세 방법은 경쟁이 아니라, 각자의 강점이 다른 방법의 약점을 보완하는 관계입니다. PINN의 물리 정합성, Neural Operator의 속도와 일반화, KAN의 해석 가능성 — 이 세 축이 결합되는 곳에서 차세대 과학 AI가 탄생할 것입니다.


참고문헌

PINN 핵심 논문

  • Lagaris, I.E., Likas, A., Fotiadis, D.I. (1998). "Artificial Neural Networks for Solving Ordinary and Partial Differential Equations." IEEE Transactions on Neural Networks, 9(5), 987-1000.
  • Raissi, M., Perdikaris, P., Karniadakis, G.E. (2019). "Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations." Journal of Computational Physics, 378, 686-707.
  • Wang, S. et al. (2021). "When and why PINNs fail to train: A neural tangent kernel perspective." Journal of Computational Physics.
  • Krishnapriyan, A. et al. (2021). "Characterizing possible failure modes in physics-informed neural networks." NeurIPS 2021.

Neural Operator 핵심 논문

  • Li, Z. et al. (2021). "Fourier Neural Operator for Parametric Partial Differential Equations." ICLR 2021.
  • Lu, L. et al. (2021). "Learning nonlinear operators via DeepONet based on the universal approximation theorem of operators." Nature Machine Intelligence, 3, 218-229.
  • Lu, L. et al. (2022). "A comprehensive and fair comparison of two neural operators (with practical extensions) based on FAIR data." Computer Methods in Applied Mechanics and Engineering, 393, 114778.
  • Li, Z. et al. (2021). "Physics-Informed Neural Operator for Learning Partial Differential Equations." ACM / IMS Journal of Data Science.
  • Hao, Z. et al. (2023). "GNOT: A General Neural Operator Transformer for Operator Learning." ICML 2023.

KAN 핵심 논문

  • Liu, Z. et al. (2024). "KAN: Kolmogorov-Arnold Networks." ICLR 2025.
  • Liu, Z. et al. (2024). "KAN 2.0: Kolmogorov-Arnold Networks Meet Science." Physical Review X.
  • Wang, Y. et al. (2024). "Kolmogorov-Arnold-Informed neural network: A physics-informed deep learning framework for solving forward and inverse problems based on Kolmogorov-Arnold Networks." Computer Methods in Applied Mechanics and Engineering.

기상 파운데이션 모델

  • Pathak, J. et al. (2022). "FourCastNet: A Global Data-driven High-resolution Weather Model using Adaptive Fourier Neural Operators."
  • Price, I. et al. (2024). "Probabilistic weather forecasting with machine learning." Nature, 637, 84-90.
  • Bodnar, C. et al. (2025). "Aurora: A foundation model for the Earth system." Nature.

벤치마크 & 파운데이션 모델

  • Takamoto, M. et al. (2022). "PDEBench: An Extensive Benchmark for Scientific Machine Learning." NeurIPS 2022.
  • Herde, M. et al. (2024). "Poseidon: Efficient Foundation Models for PDEs." NeurIPS 2024.