coredot.today
논문을 특허로 바꾸는 AI — FlowPlan-G2P 논문 완전 해부
블로그로 돌아가기
FlowPlan-G2P특허 자동 생성LLM논문-특허 변환Concept GraphNLPAI 법률자동화

논문을 특허로 바꾸는 AI — FlowPlan-G2P 논문 완전 해부

매년 350만 건의 특허가 출원되지만, 한 건당 수천만 원의 변리사 비용이 든다. FlowPlan-G2P는 논문을 특허 명세서로 변환하는 3단계 구조적 프레임워크로, Llama-4급 오픈 모델이 Claude-4.5를 2배 이상 압도하는 성과를 냈다. 핵심 아이디어부터 '메트릭 패러독스'까지, 이 논문이 왜 중요한지 완전히 해부한다.

코어닷투데이2026-03-3045

들어가며: 논문은 써봤는데, 특허는 왜 이렇게 어려울까?

FlowPlan-G2P: 논문에서 특허로의 여정

당신이 대학원생이라고 상상해 보자. 6개월간 밤새워 연구한 결과를 논문으로 발표했다. 지도교수가 말한다. "이거 특허 출원하자." 순간 머릿속이 하얘진다.

논문은 "우리 방법이 왜 좋은지" 동료 연구자를 설득하는 글이다. 하지만 특허는 완전히 다른 세계다. "발명이 무엇이고, 어떻게 구현하며, 왜 기존 기술과 다른지"를 법적으로 빈틈없이 기술해야 한다. 같은 기술인데, 글 쓰는 문법이 완전히 다르다.

결국 변리사를 찾게 되고, 청구서를 받는 순간 놀란다 — 한 건당 500만~1,500만 원. 전 세계적으로 매년 350만 건 이상의 특허가 출원되는데, 이 비용은 스타트업과 개인 발명가에게 거대한 장벽이다.

"논문을 넣으면 특허 명세서가 나오는 AI를 만들 수는 없을까?"

이 질문에 답하려는 시도가 바로 FlowPlan-G2P 논문이다.


제1장: 왜 ChatGPT에 "이 논문으로 특허 써줘"라고 하면 안 되는가

변리사의 고민: 논문과 특허 사이의 간극

"GPT한테 시키면 되지 않나?"라고 생각할 수 있다. 실제로 많은 사람들이 시도했다. 그리고 처참하게 실패했다. 왜일까?

1. 수사학적 간극 (Rhetorical Disparity)

논문과 특허는 같은 기술을 완전히 다른 문법으로 서술한다.

구분학술 논문특허 명세서
목적동료 연구자 설득발명의 법적 보호
핵심 어휘"state-of-the-art", "outperforms""utilitarian function", "embodiment"
강조점실험 결과, 벤치마크 비교구현 방법, 청구 범위 경계
정보 밀도압축 (간결할수록 좋음)확장 (상세할수록 좋음)
구조서론→방법→실험→결론기술분야→배경→요약→상세설명→효과

예를 들어 논문에서는 이렇게 쓴다:

"We propose a novel attention mechanism that achieves 92.3% accuracy on ImageNet."

같은 기술을 특허에서는 이렇게 써야 한다:

"본 발명은 이미지 인식 장치에 관한 것으로, 입력 텐서에 대해 쿼리 벡터, 키 벡터, 밸류 벡터를 생성하는 제1 연산 모듈과, 상기 쿼리 벡터와 키 벡터의 내적을 통해 어텐션 가중치를 산출하는 제2 연산 모듈을 포함하되..."

어조, 구조, 용어, 상세도 전부 다르다. 단순한 "번역"이 아니라 사고 체계의 전환이 필요하다.

2. 실시 가능 요건 (Enablement Requirement)

미국 특허법 35 U.S.C. §112에는 이런 조항이 있다:

명세서는 해당 기술 분야의 통상의 기술자(PHOSITA)가 과도한 실험 없이 발명을 실시할 수 있을 정도로 상세하게 기재해야 한다.

논문의 초록은 5줄이면 충분하지만, 특허의 상세 설명은 수십 페이지에 걸쳐 모든 구현 세부 사항을 논리적으로 펼쳐야 한다. LLM에게 "요약해줘"는 쉽지만, "확장해줘, 그것도 법적으로 유효하게"는 완전히 다른 차원의 문제다.

3. 구조적 복잡성

특허 명세서에는 엄격한 섹션별 역할이 있다:

1
기술 분야 — "본 발명은 ~에 관한 것이다"
2
배경 기술 — "종래 기술에는 ~의 문제가 있다"
3
발명의 요약 — "본 발명의 목적은 ~을 제공하는 것이다"
4
상세 설명 — 다수의 실시예, 도면 참조, 구현 세부사항
5
발명의 효과 — "따라서 본 발명에 의하면 ~의 효과가 있다"

각 섹션은 독립적이면서도 논리적으로 연결되어야 한다. "문제 → 해결 → 구현 → 효과"라는 인과적 흐름이 수십 페이지에 걸쳐 유지되어야 하는데, 일반 LLM은 긴 텍스트를 생성하면 할수록 논리적 일관성을 잃어버린다.


제2장: 기존 시도들 — 그리고 왜 부족했는가

논문을 특허로 바꾸려는 시도는 FlowPlan-G2P 이전에도 여러 차례 있었다. 흐름을 따라가 보자.

특허 자동 생성의 간략한 역사

2023
PatentGPT (Bai et al.) — LLM으로 청구항 작성 시도. 하지만 청구항만 다루고 명세서 전체는 커버하지 못함.
2024
Patentformer — 청구항+도면 입력 → 명세서 생성. 논문이 아닌 특허 형식의 입력만 처리 가능.
2024
AutoPatent (Wang et al.) — 다중 에이전트 시스템으로 작성/검토 시뮬레이션. 에이전트 간 조율이 복잡해 확장성 제한.
2025
Pap2Pat (Knappich et al.) — **최초로 논문→특허 변환** 시도. 아웃라인 기반 청크 생성. 정적 아웃라인의 한계.
2026
FlowPlan-G2P (Pan & Yoo) — 개념 그래프 + 계획 기반 구조적 변환. SOTA 달성.

이 중 가장 주목할 만한 건 Pap2Pat이다. 최초로 대규모 논문-특허 쌍 데이터셋을 만들고, "아웃라인을 먼저 생성한 뒤 청크별로 글을 쓰는" 방식을 시도했다. 하지만 정적 아웃라인은 복잡한 발명에 대응하지 못했고, 섹션 간 논리적 연결이 끊기는 문제가 있었다.

핵심 통찰: 기존 접근법들은 모두 특허 생성을 표면적 텍스트 변환(surface-level text transformation) 문제로 봤다. 하지만 진짜 변리사가 하는 일은 논리적 구조를 설계하고, 그 구조 위에 글을 쓰는 것이다.

FlowPlan-G2P는 바로 이 지점을 파고든다.


제3장: FlowPlan-G2P의 핵심 아이디어

FlowPlan-G2P 3단계 파이프라인

FlowPlan-G2P의 핵심 아이디어는 단순하면서도 강력하다:

"글을 쓰기 전에 설계도를 먼저 그려라."

숙련된 변리사가 특허를 작성할 때의 사고 과정을 관찰해 보면, 바로 글을 쓰지 않는다. 먼저 논문을 읽고, 머릿속에 "발명의 구조"를 그린다. 어떤 문제가 있고, 어떤 해결책이 있으며, 각 구성 요소가 어떻게 연결되는지 — 이런 개념적 지도를 먼저 만든 다음에 글을 쓴다.

FlowPlan-G2P는 이 인지적 과정을 3단계로 명시적으로 모델링한다:

Stage 1
개념 그래프 유도
논문 → 구조화된 개념 맵
Stage 2
단락/섹션 계획
개념 맵 → 특허 구조 설계
Stage 3
그래프 조건부 생성
구조 설계 → 특허 명세서

각 단계를 자세히 살펴보자.


Stage 1: 구조화된 추론 기반 개념 그래프 유도

첫 번째 단계는 논문을 읽고 "발명의 뼈대"를 추출하는 것이다.

9가지 정규 드래프팅 카테고리

논문의 내용을 다음 9가지 카테고리로 분해한다:

Field
기술 분야
TechProblem
기술적 문제
PriorArt
선행 기술
Novelty
신규성
Solution
해결책
Implementation
구현
Effects
효과
Embodiment
실시예
Figure
도면

LLM이 논문을 읽으며 각 카테고리에 대한 구조화된 텍스트를 순차적으로 생성한다. 여기서 중요한 건 이전 단계의 출력을 다음 단계의 입력에 포함시킨다는 점이다. "기술 분야"를 먼저 정의하고, 그 위에 "기술적 문제"를 정의하고, 그 위에 "해결책"을 정의하는 식이다. 이렇게 하면 인과적 연속성이 자연스럽게 유지된다.

3중 후보 그래프 생성

다음으로, 추출한 개념들을 방향 그래프(Directed Concept Graph)로 변환한다.

  • 노드: 특허의 개별 구성 요소 (특정 알고리즘, 기능 모듈 등)
  • 엣지: 구성 요소 간 관계 — solves, implements, causes, improves, validates

여기서 독특한 점은 3개의 후보 그래프를 동시에 생성한다는 것이다:

G1
규칙 기반 그래프
미리 정의된 엣지 템플릿 사용 (예: TechProblem → solves → Solution)
G2
LLM 기반 그래프 #1
LLM이 암묵적 의존 관계를 추론하여 그래프 생성
G3
LLM 기반 그래프 #2
다른 시드로 LLM이 추론 — 다양성 확보

이 3개의 그래프를 다수결 투표(majority voting)합집합(union semantics)으로 병합하여 최종 그래프 G*를 만든다. 갈등하는 엣지 타입은 다수결로 해결하고, 고립된 노드는 제거하며, 필수 노드(Field, TechProblem, Solution)가 빠져있으면 플레이스홀더를 자동 주입한다.

왜 3개나? 하나의 방법으로는 모든 관계를 포착하기 어렵기 때문이다. 규칙 기반은 명시적 관계를 놓치지 않지만 암묵적 관계를 놓치고, LLM 기반은 그 반대다. 세 가지를 합치면 구조적 리콜(structural recall)이 극대화된다.


Stage 2: 단락 및 섹션 계획

개념 그래프 시각화

두 번째 단계는 개념 그래프를 법적으로 유효한 특허 섹션으로 재구성하는 것이다.

계획 구성

그래프 G*의 노드들을 특허의 표준 섹션에 배치한다:

기술 분야
(Field)
배경 기술
(Background)
발명의 요약
(Summary)
상세 설명
(Detailed)
효과
(Effects)

문제 → 해결 → 구현 → 효과라는 전역적 서사 흐름이 반드시 유지되어야 한다.

게이팅 메커니즘: 나쁜 계획 걸러내기

5개의 후보 계획을 생성하고, 두 가지 정량적 기준으로 평가한다:

지표설명임계값
섹션 내 연결성 (C)한 섹션에 배치된 노드들이 실제로 엣지로 연결되어 있는 비율C ≥ 0.5
의미적 일관성 (Sim)노드 타입의 엔트로피 기반 동질성 (같은 유형의 노드끼리 묶였는가)Sim ≥ 0.6

두 기준을 모두 충족하는 계획을 채택하고, 충족하는 게 없으면 합산 점수가 가장 높은 것을 선택한다. 추가로 규칙 기반 프루닝도 적용한다 — 예를 들어 "실시예가 기술적 문제보다 앞에 나오는" 비논리적 구성은 자동 거부된다.


Stage 3: 그래프 조건부 생성

마지막 단계는 설계도를 바탕으로 실제 특허 문장을 생성하는 것이다.

각 섹션의 서브그래프를 선형화(linearize)한 뒤, 섹션별 특화 프롬프트와 함께 LLM에 입력한다:

특허 지시문
당신은 숙련된 특허 명세서 작성 전문가입니다. 다음 개념 그래프를 바탕으로 [배경 기술] 섹션을 작성하십시오. "종래 기술에 의하면..." "그러나 이러한 기술에는 다음과 같은 문제가 있다..." 등의 정형 표현을 사용하십시오.
섹션 서브그래프 (선형화)
Node: CNN-based feature extraction [type: PriorArt]
Node: Fixed receptive field limitation [type: TechProblem]
Edge: CNN-based feature extraction --causes--> Fixed receptive field limitation

섹션별 전략도 다르다:

  • 기술 분야: 간결성과 기술적 정확성 강조
  • 배경 기술: 명시적 문제 제기 ("그러나 이러한 기술에는 다음과 같은 문제가 있다...")
  • 상세 설명: 다수 실시예 + 도면 참조 ("도 1에 도시된 바와 같이...")
  • 효과: 인과적 결론 ("따라서 본 발명에 의하면...")

생성 시 낮은 온도(τ=0.2)를 사용해 환각을 최소화하고, 전문 특허 코퍼스의 퓨샷 예시를 포함해 스타일 드리프트를 방지한다. 생성 후에는 LLM 기반 함의(entailment) 검증으로 원본과의 의미적 충실도를 확인하고, 불일치가 크면 재생성을 트리거한다.


제4장: 실험 결과 — 그리고 충격적인 발견

데이터셋: Pap2Pat-EvalGold

평가에는 기존 Pap2Pat 데이터셋을 정제한 Pap2Pat-EvalGold를 사용했다. 원본 데이터셋에는 노이즈가 많았기 때문에, 두 가지 필터를 적용했다:

  • 의미적 정렬: 논문-특허 쌍의 코사인 유사도 ≥ 0.8 (Sentence-BERT)
  • 저자 일치: 저자 중첩률 ≥ 0.5 (특허 발명자와 논문 저자가 실질적으로 동일)

결과: 146쌍의 고품질 논문-특허 쌍.

비교 대상 (Baselines)

모든 비교에 Claude-4.5를 백본으로 사용:

  1. Zero-Shot Prompting — 예시 없이 바로 생성
  2. Few-Shot Prompting — 특허 예시를 포함하여 생성
  3. Pap2Pat — 아웃라인 기반 청크 생성 (기존 SOTA)

결과: FlowPlan-G2P의 압도적 성능

Zero-Shot 1.6
Few-Shot 2.2
Pap2Pat 3.1
FlowPlan-G2P 4.8 SOTA

Pat-DEVAL 종합 점수(5점 만점) 기준, FlowPlan-G2P는 4.8점으로 기존 SOTA인 Pap2Pat(3.1점)을 54% 이상 앞섰다. 4가지 세부 지표에서도 모두 압도적이다:

모델기술 충실도 (TCF)데이터 정밀도 (DP)구조 커버리지 (SC)법적 적합성 (LPC)
Zero-Shot1.81.51.91.6
Few-Shot2.42.12.52.2
Pap2Pat3.53.23.43.1
FlowPlan-G2P4.64.54.74.8

특히 법적-전문적 적합성(LPC) 4.8점은 사실상 전문 변리사 수준에 근접한 결과다.


제5장: 메트릭 패러독스 — AI 평가의 함정

메트릭 패러독스: 기계 점수 vs 전문가 평가

이 논문의 가장 충격적인 발견은 성능 자체가 아니다. 기존 평가 지표가 완전히 틀렸다는 것이다.

ROUGE가 높으면 특허 품질도 좋을까?

모델ROUGE-LBERTScore전문가 법적 평가
Zero-Shot0.1780.8701.5 / 5
Few-Shot0.1380.8342.1 / 5
FlowPlan-G2P0.1690.8304.7 / 5

놀랍게도 Zero-Shot이 가장 높은 ROUGE-L(0.178)과 BERTScore(0.870)를 기록했다. 하지만 전문가 평가에서는 1.5점 — 법적으로 무효 수준이었다.

반면 FlowPlan-G2P는 ROUGE-L과 BERTScore가 오히려 낮지만, 전문가 평가에서 4.7점 — 거의 완벽한 결과를 받았다.

왜 이런 역전이 일어나는가?

!
ROUGE/BERTScore의 한계
이 지표들은 표면적 어휘 유사도를 측정한다. 원본 특허와 비슷한 단어를 많이 쓸수록 점수가 높다. 하지만 특허의 품질은 단어 유사도가 아니라 법적 논리 구조에 있다.
Zero-Shot이 높은 이유
Zero-Shot은 논문의 표현을 거의 그대로 재활용한다. 원문과 어휘 겹침이 크니 ROUGE가 높지만, 특허로서의 법적 구조는 갖추지 못한다.
FlowPlan-G2P가 낮은 이유
FlowPlan-G2P는 논문의 표현을 특허 전문 용어로 완전히 재구성한다. 어휘 겹침은 줄지만, 법적 유효성은 극적으로 높아진다.

저자들은 이를 "메트릭 패러독스(Metric Paradox)"라고 명명했다. 특허 도메인에서 기존 NLG 지표를 신뢰하면 법적으로 무효한 텍스트에 가장 높은 점수를 주게 된다.

이를 해결하기 위해 논문은 Pat-DEVAL이라는 특허 전문 평가 프레임워크를 사용했다. Chain-of-Legal-Thought(CoLT) 메커니즘으로 통상의 기술자(PHOSITA)의 사고를 시뮬레이션하며, 인간 전문가와의 상관계수(Kendall's tau)가 0.67~0.76으로 높은 일치도를 보였다.


제6장: 방법론이 모델 크기를 이긴다

이 논문에서 두 번째로 중요한 발견:

FlowPlan-G2P를 장착한 Llama-4-scout가 아무것도 없는 Claude-4.5를 2배 가까이 이긴다.

LLM 백본Vanilla (Few-Shot)+ FlowPlan-G2P향상률
Llama-4-scout2.04.3+115%
DeepSeek-v3.12.24.6+109%
Claude-4.52.34.8+109%

Pat-DEVAL 종합 점수 (5점 만점) 시각화:

Llama-4 Vanilla 2.0
DeepSeek Vanilla 2.2
Claude-4.5 Vanilla 2.3
Llama-4 + G2P 4.3
DeepSeek + G2P 4.6
Claude-4.5 + G2P 4.8 SOTA

이 결과가 의미하는 바는 크다:

  1. 방법론 > 모델 크기: 구조화된 프레임워크가 원시 모델 능력보다 중요하다
  2. 오픈소스의 가능성: Llama-4-scout 같은 오픈 모델에 FlowPlan-G2P를 적용하면 상용 모델 수준의 특허 생성이 가능하다
  3. 양의 스케일링: 더 강한 모델일수록 계획을 더 잘 활용한다 (Claude-4.5가 가장 높은 점수)

이는 단순히 특허 분야에만 해당하는 통찰이 아니다. 복잡한 전문 문서 생성에서 "구조적 중간 표현"의 힘을 보여주는 사례다.


제7장: 사례로 이해하는 FlowPlan-G2P

실제로 어떻게 작동하는지, 가상의 예시로 살펴보자.

입력: 어텐션 메커니즘 논문

가상의 논문 "EfficientAttention: A Lightweight Self-Attention for Mobile Vision"이 있다고 하자.

논문 핵심 내용
- 기존 Self-Attention은 O(n²) 복잡도로 모바일 기기에 부적합
- 입력 시퀀스를 청크로 분할하여 지역 어텐션 계산 후 병합
- ImageNet Top-1 정확도 78.3%, FLOPs 2.1G (MobileNetV3 대비 1.5% 높고 FLOPs 동일)
- 청크 크기 하이퍼파라미터에 따른 정확도-속도 트레이드오프 분석

Stage 1에서 추출된 개념 그래프 (간소화)

모바일 비전
[Field]
O(n²) 복잡도
[TechProblem]
→ solves
청크 분할 어텐션
[Solution]
청크 분할 어텐션
[Solution]
→ implements
지역 어텐션 모듈
[Implementation]
→ causes
78.3% 정확도
[Effects]

Stage 3에서 생성된 특허 명세서 (일부)

생성된 특허 명세서 — 기술 분야
본 발명은 모바일 디바이스 환경에서의 이미지 인식 장치 및 방법에 관한 것으로, 보다 상세하게는 제한된 연산 자원 하에서 효율적인 셀프 어텐션 연산을 수행하는 경량 어텐션 모듈에 관한 것이다.
생성된 특허 명세서 — 배경 기술
종래의 셀프 어텐션 메커니즘은 입력 시퀀스의 길이 n에 대해 O(n²)의 연산 복잡도를 갖는다. 이는 서버 환경에서는 허용 가능하나, 모바일 디바이스와 같이 연산 자원이 제한된 환경에서는 실시간 처리가 불가능하다는 문제가 있었다. 따라서, 어텐션의 표현력을 유지하면서도 연산 복잡도를 줄이는 기술이 요구되고 있다.

논문의 "우리가 이겼다" 식 서술이 "~의 문제가 있었다" → "따라서 ~가 요구된다"라는 특허 특유의 인과적 서술로 완전히 재구성된 것을 볼 수 있다.


제8장: 2026년, 이 기술은 왜 중요한가

1. 특허 민주화

특허 출원의 가장 큰 장벽은 비용이다. 한 건당 수백만 원의 변리사 비용은 대학 연구실, 1인 창업가, 개발도상국 발명가에게 사실상 접근 불가능한 벽이다. FlowPlan-G2P 같은 기술이 상용화되면, 초안 생성 비용이 90% 이상 절감될 수 있다. 물론 최종 검토는 변리사가 해야 하지만, "백지에서 시작"하는 것과 "80% 완성된 초안을 다듬는 것"은 천지 차이다.

2. 과학-산업 간 기술 이전 가속

매년 수백만 편의 학술 논문이 발표되지만, 특허로 이어지는 비율은 극히 낮다. 이유 중 하나가 "논문은 쓸 줄 알지만 특허는 어떻게 써야 할지 모르겠다"는 것이다. 논문→특허 변환이 자동화되면, 실험실의 연구 성과가 산업적 보호를 받는 속도가 빨라진다.

3. "구조적 중간 표현" 패러다임의 확산

FlowPlan-G2P의 진짜 기여는 특허 분야에만 있지 않다. "복잡한 문서는 바로 쓰지 말고, 먼저 구조를 설계하라"는 원칙은 다음에도 적용 가능하다:

법률 문서
계약서, 소장
규제 보고서
FDA 제출 문서
기술 사양서
RFC, API 문서
의료 기록
임상 시험 보고서
금융 문서
투자설명서, 감사보고서
교육 자료
교과서, 커리큘럼

어떤 분야든 엄격한 구조와 전문 용어, 법적/규제적 요건이 있는 문서 생성에서 "개념 그래프 → 계획 → 생성" 패러다임은 게임 체인저가 될 수 있다.

4. 평가 방법론의 전환

메트릭 패러독스의 발견은 NLP 커뮤니티 전체에 중요한 경고다. 도메인 전문 지식이 필요한 텍스트를 ROUGE/BERTScore로 평가하면 완전히 잘못된 결론에 도달할 수 있다. 법률, 의료, 금융 등 전문 도메인의 텍스트 생성 연구에서 도메인 특화 평가 프레임워크(Pat-DEVAL 같은)의 필요성이 부각된다.


제9장: 한계와 미래 방향

저자들이 인정한 한계

1
청구항과의 법적 일관성
현재 FlowPlan-G2P는 "상세 설명" 생성에 초점을 맞추고 있다. 실제 특허에서는 상세 설명이 청구항(Claims)을 명시적으로 뒷받침해야 하는데, 이 둘 간의 실시간 정합성 검증 메커니즘이 아직 없다. 향후 청구항과 명세서를 동시에 생성하는 연구가 필요하다.
2
변화하는 법적 판례 대응
특허법 해석은 새로운 판례와 법률 개정에 따라 변한다. FlowPlan-G2P는 학습 시점의 법적 지식에 의존하므로, 실시간 법률 데이터베이스 연동(RAG 방식)이 필요하다.

추가적 고려 사항

  • 146쌍이라는 데이터셋 규모는 통계적으로 충분하지 않을 수 있다
  • 영어 특허에 집중했으므로, 한국어/일본어/중국어 특허로의 확장 검증이 필요하다
  • 이 프레임워크는 보조 도구이지 변리사를 대체하는 것이 아니다 — Human-in-the-Loop가 반드시 필요하다

맺으며: AI가 발명을 보호하는 시대

FlowPlan-G2P 논문이 던지는 메시지는 명확하다:

LLM에게 "글 써줘"라고 하는 것과 "먼저 설계하고 그 다음에 써"라고 하는 것은 전혀 다른 결과를 낳는다.

이 원칙은 특허뿐 아니라, 복잡한 구조를 가진 모든 전문 문서에 적용된다. 그리고 이 논문이 보여준 것처럼, 올바른 방법론은 올바른 모델보다 강하다. Llama-4에 구조적 프레임워크를 얹으면 Claude-4.5를 단독으로 사용하는 것보다 2배 나은 결과를 낸다.

2026년은 AI가 단순히 "글을 쓰는 도구"에서 "전문가의 사고 과정을 모방하는 시스템"으로 진화하는 전환점이다. FlowPlan-G2P는 그 전환의 좋은 사례다 — 표면적 패턴 매칭에서 구조적 추론으로, 벤치마크 최적화에서 실세계 유효성으로.

다음에 "이 논문으로 특허 써줘"라고 ChatGPT에 부탁하고 싶어질 때, 이 논문을 떠올려 보자. "먼저 개념 그래프를 그려"라고 한마디 더하는 것만으로, 결과물의 품질이 완전히 달라질 수 있다.


참고 문헌
• Pan, K. W. & Yoo, Y. (2026). FlowPlan-G2P: A Structured Generation Framework for Transforming Scientific Papers into Patent Descriptions. arXiv:2601.02589.
• Knappich, M. et al. (2025). Pap2Pat: Paper-to-Patent Generation. EMNLP 2025.
• Bai, J. et al. (2024). PatentGPT: A Large Language Model for Intellectual Property. arXiv:2404.18011.
• Wang, S. et al. (2024). AutoPatent: A Multi-Agent Framework for Automatic Patent Generation. arXiv:2412.09796.
• 35 U.S.C. §112 — Specification Requirements.