coredot.today
D-FINE 완전 이해: 바운딩 박스를 '확률 분포'로 다듬다 — 실시간 검출의 새로운 경지
블로그로 돌아가기
객체 검출논문 리뷰D-FINEDETRFDRGO-LSD분포 정제

D-FINE 완전 이해: 바운딩 박스를 '확률 분포'로 다듬다 — 실시간 검출의 새로운 경지

고정된 좌표 대신 확률 분포를 반복 정제하고, 깊은 층의 지혜를 얕은 층에 전수하는 자기 증류까지 — D-FINE이 YOLO와 RT-DETR를 모두 넘어서며 실시간 객체 검출의 새로운 기준을 세운 이야기.

코어닷투데이2025-12-1844

들어가며 — 바운딩 박스는 정말 "정확한 좌표"일까?

한 장의 사진에 고양이가 있다.

당신에게 "이 고양이의 바운딩 박스를 그려주세요"라고 부탁하면, 당신은 고양이를 둘러싸는 네모 박스를 그릴 것이다. 하지만 가만히 생각해보자 — 그 박스의 오른쪽 가장자리는 정확히 어디인가? 고양이의 꼬리 끝? 수염 끝? 그림자의 끝? 고양이가 털이 복슬복슬하다면, 몸의 경계가 어디인지조차 모호하다.

이것이 바운딩 박스 회귀(bounding box regression)의 본질적인 어려움이다.

2015년부터 2024년까지, YOLO부터 RT-DETR까지, 거의 모든 객체 검출기는 바운딩 박스를 네 개의 고정된 숫자로 예측했다. "왼쪽 가장자리는 x=123.4, 위쪽은 y=45.6, 너비는 w=78.9, 높이는 h=101.2." 마치 모든 경계가 칼로 자른 듯 정확하다는 전제 위에서.

하지만 현실의 객체 경계는 그렇지 않다. 가려진 객체, 흐릿한 사진, 복잡한 배경 — 경계는 종종 불확실(uncertain)하다. 고정 좌표 예측은 이 불확실성을 표현할 방법이 없다. 그리고 고정 좌표는 한 번에 맞추거나 틀리거나 둘 중 하나다. 점진적으로 개선할 여지가 없다.

2024년 10월, 중국과학기술대학교(USTC)의 연구팀이 이 근본적인 문제에 도전했다.

"D-FINE: Redefine Regression Task in DETRs as Fine-grained Distribution Refinement" — 회귀를 재정의한다. 고정 좌표 대신 확률 분포를 예측하고, 이 분포를 디코더 레이어를 거치며 점진적으로 다듬는다. 그리고 깊은 층이 학습한 정교한 분포를 얕은 층에 자기 증류(self-distillation)로 전수하여, 전체 네트워크의 위치 정확도를 끌어올린다.

결과는? D-FINE-X: COCO에서 55.8% AP, 초당 78프레임. Objects365로 사전 학습하면 59.3% AP — 2024년 기준 모든 실시간 검출기 중 최고 성능. YOLO11, RT-DETR, RT-DETRv2를 모두 능가했다.


1장: 왜 고정 좌표 회귀는 한계가 있는가

디랙 델타의 함정

전통적인 바운딩 박스 회귀는 디랙 델타 분포(Dirac delta distribution)를 가정한다. 각 가장자리의 위치를 하나의 정확한 숫자로 예측한다는 것이다. 수학적으로, "오른쪽 가장자리의 위치는 정확히 x=153.7이다"라는 예측은 x=153.7에서만 확률 1이고 나머지는 0인 분포에 해당한다.

고정 좌표(디랙 델타)와 확률 분포 방식의 비교. 고정 좌표는 딱딱한 자로 흐릿한 경계를 재려 하고, 확률 분포는 부드럽게 불확실성을 감싸안는다

이 접근의 문제를 구체적으로 살펴보자.

문제 1: 불확실성을 모델링할 수 없다.

가려진 객체의 경계, 모션 블러로 번진 가장자리, 비슷한 색의 배경과 맞닿은 경계 — 이 모든 경우에서 "정확한 위치"는 본질적으로 모호하다. 하지만 디랙 델타는 "여기가 100% 확실하다"고만 말할 수 있다. 모호함을 표현할 방법이 없다.

문제 2: 최적화가 불안정하다.

L1 손실이나 IoU 손실은 예측된 좌표와 실제 좌표의 차이를 줄이는 방향으로 학습한다. 하지만 이 손실들은 각 가장자리를 독립적으로 조정하는 데 충분한 가이드를 제공하지 못한다. 예측이 실제에 매우 가까울 때, 작은 좌표 변화에 대한 기울기가 급변하여 최적화가 불안정해진다.

문제 3: 점진적 개선이 불가능하다.

DETR의 디코더는 여러 층을 거치며 예측을 정제한다. 하지만 고정 좌표를 정제하는 것은 "숫자 하나를 조금씩 고치는" 것에 불과하다. 표현력이 제한적이어서, 디코더 층이 깊어져도 개선 폭이 빠르게 줄어든다.

GFocal: 분포의 첫 시도와 한계

이 문제를 처음 인식한 것은 GFocal(Generalized Focal Loss, 2020)이다. GFocal은 각 가장자리의 위치를 하나의 숫자가 아닌 이산화된 확률 분포로 예측했다. N개의 구간(bin)에 대해 "이 가장자리가 여기에 있을 확률"을 예측하는 것이다.

d=dmaxn=0NnNP(n)\mathbf{d} = d_{\max} \sum_{n=0}^{N} \frac{n}{N} \mathbf{P}(n)

하지만 GFocal에는 세 가지 한계가 있었다.

1
앵커 의존성 (Anchor Dependency)
예측이 앵커 박스 중심에 묶여 있어, 앵커 프리 프레임워크(DETR 등)와 호환이 어렵다.
2
반복 정제 없음 (No Iterative Refinement)
분포를 한 번에 예측하고 끝. 점진적 개선이 불가능하여 회귀의 견고성이 떨어진다.
3
조밀하지 않은 위치 (Coarse Localization)
고정된 거리 범위와 균일한 bin 간격 → 작은 객체에서 각 bin이 넓은 범위를 담당하여 위치가 부정확하다.

D-FINE은 이 세 가지 한계를 모두 해결한다.


2장: FDR — 확률 분포를 층층이 다듬다

핵심 아이디어: "좌표 대신 분포를, 한 번 대신 반복적으로"

D-FINE의 첫 번째 핵심 구성요소인 FDR(Fine-grained Distribution Refinement)은 바운딩 박스 회귀를 완전히 재정의한다.

기존: "오른쪽 가장자리 = 153.7" (하나의 숫자) D-FINE: "오른쪽 가장자리가 각 위치에 있을 확률 분포" → 이 분포를 매 디코더 레이어에서 정제

FDR의 반복 정제 과정: 넓은 분포에서 시작하여 디코더 레이어를 거칠수록 점점 날카롭게 집중된다

구체적 동작 방식

Step 1: 초기 예측. 첫 번째 디코더 레이어가 두 가지를 출력한다.

  • 초기 바운딩 박스 b0={x,y,W,H}\mathbf{b}^0 = \{x, y, W, H\} (전통적 방식)
  • 예비 확률 분포 (D-FINE 헤드를 통해)

초기 바운딩 박스를 중심점 c0={xc,yc}\mathbf{c}^0 = \{x_c, y_c\}가장자리 거리 d0={t,b,l,r}\mathbf{d}^0 = \{t, b, l, r\} (위, 아래, 왼쪽, 오른쪽)로 변환한다.

Step 2: 분포 정제. 이후 각 디코더 레이어 ll에서, 바운딩 박스의 네 가장자리가 다음과 같이 정제된다.

FDR 핵심 수식
dl = d0 + {H, H, W, W} · Σ W(n) · Prl(n)

여기서:
· dl = l번째 레이어의 정제된 가장자리 거리
· Prl(n) = l번째 레이어의 확률 분포 (4개 가장자리 × N+1개 bin)
· W(n) = 비균일 가중 함수
· {H, H, W, W} = 박스 크기에 비례하는 스케일링

핵심은 확률 분포가 잔차(residual) 방식으로 정제된다는 것이다.

Prl(n)=Softmax(Δlogitsl(n)+logitsl1(n))\mathbf{Pr}^l(n) = \text{Softmax}\big(\Delta\text{logits}^l(n) + \text{logits}^{l-1}(n)\big)

현재 레이어는 이전 레이어의 로짓(logits)에 수정값(Δ\Deltalogits)만 예측하여 더한다. 처음부터 다시 예측하는 것이 아니라, 이전 결과를 기반으로 조금씩 개선하는 것이다. 마치 사진을 편집할 때, 매번 처음부터 그리는 대신 이전 결과 위에 보정하는 것과 같다.

비균일 가중 함수 W(n): 정밀함의 비밀

FDR의 핵심 설계 중 하나가 비균일 가중 함수 W(n)이다. 일반적인 접근은 모든 bin에 동일한 가중치를 부여하는 것이지만, D-FINE은 위치에 따라 다른 가중치를 부여한다.

가중 함수 W(n)의 설계 철학
중심 부근 (분포의 가운데): 작은 곡률 → 미세한 조정
예측이 이미 정확할 때, 큰 변화는 불필요. 섬세한 미조정만 필요하다.

가장자리 부근 (분포의 양 끝): 급격한 변화 → 큰 보정
예측이 크게 빗나갔을 때, 빠르게 큰 폭의 수정이 필요하다.

직관적으로, 이것은 카메라의 수동 초점 링과 같다. 초점이 거의 맞았을 때는 미세하게 돌리고, 초점이 크게 빗나갔을 때는 빠르게 크게 돌린다. D-FINE의 W(n)은 바로 이 동적 조절을 수학적으로 구현한 것이다.

아래 탐색기에서 FDR의 분포 정제 과정과 W(n)의 형태를 직접 체험해보자.

FGL 손실: 분포를 정밀하게 정렬하다

D-FINE은 분포 예측을 위한 전용 손실 함수인 FGL(Fine-Grained Localization) Loss도 도입한다. GFocal의 DFL(Distribution Focal Loss)에서 영감을 받았지만, 두 가지 핵심 개선이 있다.

  1. IoU 기반 가중치: IoU가 높은 예측의 분포 정렬에 더 큰 가중치를 부여한다.
  2. 보간 가중치 ω,ω\omega_\leftarrow, \omega_\rightarrow: 실제 오프셋이 두 bin 사이에 있을 때, 각 bin에 대한 가중치를 정밀하게 보간한다.

이를 통해 분포가 더 집중되고(concentrated), 불확실성이 낮은 정밀한 예측이 가능해진다.


3장: GO-LSD — 깊은 층의 지혜를 얕은 층에 전수하다

자기 증류: 별도의 교사가 필요 없다

D-FINE의 두 번째 핵심 구성요소인 GO-LSD(Global Optimal Localization Self-Distillation)는 지식 증류(knowledge distillation)의 새로운 패러다임이다.

전통적인 지식 증류는 큰 교사 모델작은 학생 모델이 필요하다. 교사를 먼저 학습시키고, 그 지식을 학생에게 전수한다. 하지만 이는 추가 학습 비용이 크고, DETR의 일대일 매칭과 호환이 어렵다.

GO-LSD의 자기 증류 개념: 같은 네트워크 안에서 깊은 레이어(선생님)가 얕은 레이어(학생)에게 위치 정보를 가르친다

GO-LSD는 별도의 교사 모델 없이, 같은 네트워크의 마지막 디코더 레이어(가장 정교한 분포)를 교사로 사용한다. 이것이 "자기 증류(self-distillation)"의 의미다.

디코더 레이어 6 (최종, 가장 정교)
= 교사 (Teacher)
↓ 위치 지식 전달
디코더 레이어 5
디코더 레이어 4
...
디코더 레이어 1 (초기, 가장 거친)
= 학생 (Student)

글로벌 최적 매칭: 모든 레이어의 베스트를 모은다

GO-LSD의 핵심 아이디어는 글로벌 유니온 셋(global union set)이다.

DETR은 헝가리안 매칭으로 각 디코더 레이어에서 예측과 실제 객체를 매칭한다. 하지만 각 레이어의 매칭 결과가 다를 수 있다. 레이어 2에서 특정 쿼리가 객체 A와 매칭되었지만, 레이어 5에서는 다른 쿼리가 매칭될 수 있다.

GO-LSD는 모든 레이어의 매칭 인덱스를 합집합(union)으로 모아, 가장 정확한 후보들의 전체 집합을 만든다. 이 유니온 셋에 대해 증류를 수행하면, 모든 레이어가 혜택을 받는다.

DDF 손실: 매칭된 것과 매칭되지 않은 것을 구분하여

유니온 셋에는 매칭된 예측(높은 IoU)과 매칭되지 않은 예측(낮은 신뢰도이지만 정확한 위치)이 공존한다. GO-LSD는 이 둘을 다른 가중치 전략으로 처리하는 DDF(Decoupled Distillation Focal) Loss를 사용한다.

DDF Loss 구조
LDDF = T² · Σ레이어 (
  매칭된 예측: Σ αk · KL(Prl, PrL)  ← IoU 가중
  + 비매칭 예측: Σ βk · KL(Prl, PrL)  ← 신뢰도 가중
)

αk = IoUk · √Km / (√Km + √Ku)
βk = Confk · √Ku / (√Km + √Ku)

매칭된 예측에는 IoU가 높을수록 큰 가중치를 부여하고, 비매칭 예측에는 분류 신뢰도가 높을수록 큰 가중치를 부여한다. 또한 매칭/비매칭의 수량 비율에 따라 자동으로 균형을 잡는다.

시너지 효과: 선순환

GO-LSD가 만드는 선순환(virtuous cycle)을 이해하는 것이 중요하다.

1
학습이 진행되며 마지막 레이어의 분포가 점점 정교해진다
2
GO-LSD가 이 정교한 분포를 얕은 레이어에 전달한다
3
얕은 레이어의 초기 예측이 더 정확해진다
4
깊은 레이어가 정제할 잔차(residual)가 더 작아진다
5
더 작은 잔차를 정제하므로, 최종 결과가 더 정확해진다 → 1로 돌아감

4장: D-FINE 아키텍처 — 경량화의 기술

기준 모델에서 D-FINE까지의 여정

D-FINE은 RT-DETR-HGNetv2를 기준으로 시작하여, 단계적으로 아키텍처를 개선한다. 논문의 Table 3이 이 여정을 상세히 보여준다.

수정 단계AP (%)파라미터지연 시간 (ms)GFLOPs
기준: RT-DETR-HGNetv2-L53.032M9.25110
디코더 프로젝션 레이어 제거52.432M8.0297
+ 타겟 게이팅 레이어52.833M8.1598
인코더 CSP → GELAN53.546M10.69167
GELAN 히든 차원 축소52.831M8.0191
비균등 샘플링 포인트52.931M7.9091
RT-DETRv2 학습 전략53.031M7.9091
+ FDR53.531M8.0791
+ GO-LSD (= D-FINE)54.031M (-3%)8.07 (-13%)91 (-17%)

최종 D-FINE-L은 기준 대비 AP +1.0%, 파라미터 -3%, 지연 -13%, GFLOPs -17%. 더 정확하면서 더 빠르고 더 작다. 이것이 FDR과 GO-LSD의 위력이다 — 아키텍처를 경량화해서 잃은 성능을, 분포 정제와 자기 증류가 메우고도 넘친다.

타겟 게이팅 레이어: 정보 얽힘 방지

D-FINE의 아키텍처 기여 중 하나가 타겟 게이팅 레이어(Target Gating Layer)다. 디코더의 크로스 어텐션 뒤에 배치되며, 기존의 잔차 연결(residual connection)을 대체한다.

기존 잔차 연결의 문제는 레이어 간 정보 얽힘(information entanglement)이다. 이전 레이어의 쿼리가 현재 레이어에 그대로 전달되면, 쿼리가 서로 다른 타겟에 집중하기 어려워진다.

타겟 게이팅은 시그모이드 게이트를 통해 이전 쿼리와 현재 크로스 어텐션 결과를 동적으로 혼합한다. 쿼리가 레이어마다 다른 타겟에 유연하게 집중할 수 있게 해준다.


5장: 실험 결과 — 모든 실시간 검출기를 능가하다

COCO val2017: 대결의 장

D-FINE의 실험 결과는 2024년 객체 검출 분야에서 가장 강력한 숫자들이다.

엔드투엔드 검출기파라미터GFLOPs지연 시간AP (%)
YOLOv10-L24M1207.66ms53.2
YOLOv10-X30M16010.74ms54.4
RT-DETR-R5042M1369.12ms53.1
RT-DETR-R10176M25913.61ms54.3
RT-DETRv2-L42M1369.15ms53.4
RT-DETRv2-X76M25913.66ms54.3
RT-DETRv3-X76M25913.61ms54.6
D-FINE-L31M918.07ms54.0
D-FINE-X62M20212.89ms55.8

D-FINE-L vs YOLOv10-L: AP 54.0% vs 53.2% (+0.8%), 파라미터 31M vs 24M, GFLOPs 91 vs 120 (24% 적음), 지연 8.07ms vs 7.66ms. 약간의 지연 증가로 상당한 정확도 향상.

D-FINE-L vs RT-DETR-R50: AP 54.0% vs 53.1% (+0.9%), 파라미터 31M vs 42M (26% 적음), GFLOPs 91 vs 136 (33% 적음), 지연 8.07ms vs 9.12ms (12% 빠름). 모든 지표에서 우세.

D-FINE-X vs 모든 경쟁자: 55.8% AP는 YOLO11-X(54.7%), RT-DETR-HG-X(54.8%), RT-DETRv3-X(54.6%)를 모두 1% 이상 넘어선다.

전체 모델 패밀리

모델AP (%)파라미터지연 시간 (ms)GFLOPs
D-FINE-N42.84M2.127
D-FINE-S48.510M3.4925
D-FINE-M52.319M5.6257
D-FINE-L54.031M8.0791
D-FINE-X55.862M12.89202

특히 D-FINE-N4M 파라미터, 7 GFLOPs, 2.12ms42.8% AP를 달성한다. 초경량 엣지 디바이스를 위한 모델로서, 매우 제한된 자원에서도 의미 있는 성능을 제공한다.

COCO AP (%) — 엔드투엔드 실시간 검출기 비교
D-FINE-X
55.8
RT-DETR-HG-X
54.8
RT-DETRv3-X
54.6
YOLOv10-X
54.4
D-FINE-L
54.0
RT-DETRv2-L
53.4
YOLOv10-L
53.2
RT-DETR-R50
53.1

Objects365 사전 학습: 59.3% AP의 새 기록

대규모 데이터셋 Objects365로 사전 학습 후 COCO로 파인튜닝하면 성능이 대폭 향상된다.

모델COCO AP (%)Objects365+COCO AP (%)향상
D-FINE-S48.550.7+2.2
D-FINE-M52.355.1+2.8
D-FINE-L54.057.3+3.3
D-FINE-X55.859.3+3.5

D-FINE-X는 59.3% AP — 2024년 기준 모든 실시간 검출기 중 최고 성능이다. YOLOv10-X(54.9%)를 4.4%, RT-DETR-R101(56.2%)을 3.1% 앞선다.

특히 주목할 것은 D-FINE의 사전 학습 효율이다. YOLOv10은 Objects365에서 300 에폭을 학습하지만, D-FINE은 21 에폭만으로 동등 이상의 성능을 달성한다. DETR 계열이 대규모 사전 학습에서 YOLO보다 훨씬 효율적이라는 것을 확인한 결과다.

FDR + GO-LSD의 범용성: 다양한 DETR에 적용

FDR과 GO-LSD는 D-FINE만을 위한 것이 아니다. 기존의 다양한 DETR 모델에 거의 그대로 적용할 수 있으며, 모두에서 성능이 향상된다.

모델원래 AP (%)+ FDR & GO-LSD향상
Deformable-DETR43.747.1+3.4
DAB-DETR44.249.5+5.3
DN-DETR46.049.7+3.7
DINO (12ep)49.051.6+2.6
DINO (24ep)50.452.4+2.0

DAB-DETR에서 +5.3% AP. 추가 파라미터와 학습 비용 없이. 이것이 "범용적이고 효율적인 방법론"의 가치다.


6장: 증류 방법 비교 — 왜 GO-LSD인가

기존 증류 방법들과의 비교는 GO-LSD의 설계가 왜 뛰어난지를 명확히 보여준다.

증류 방법AP (%)학습 시간/에폭GPU 메모리
기준 (증류 없음)53.029분8552M
Logit Mimicking52.6 (-0.4)31분8554M
Feature Imitation52.9 (-0.1)31분8554M
기준 + FDR53.830분8730M
Localization Distill.53.731분8734M
GO-LSD54.531분8734M

놀라운 점:

  1. 전통적 증류(Logit Mimicking, Feature Imitation)는 오히려 성능을 떨어뜨린다. DETR의 일대일 매칭 특성 때문에, 분류 로짓이나 특징을 그대로 복사하는 방식이 불안정하다.

  2. GO-LSD는 기준 대비 +1.5% AP를 달성하면서, 학습 시간은 단 6% 증가, 메모리는 2% 증가에 불과하다. 사실상 "공짜"에 가까운 성능 향상이다.


7장: 하이퍼파라미터 — 최적의 균형점

가중 함수 파라미터 a, c

a, c 조합AP (%)비고
a=1/4, c=1/452.7a가 너무 작음
a=1/2, c=1/453.3최적
a=1/2, c=1/ε53.0c가 너무 큼 → 선형에 가까움
a=1/2, c=1/853.2
학습 가능 ã, c̃53.1고정값이 더 안정적

분포 bin 수 N

N (bins)AP (%)
453.3
853.4
1653.5
3253.7
6453.6
12853.6

N=32가 최적. 그 이상은 유의미한 향상이 없다 — 분포의 세밀함에는 한계가 있다.

온도 T (KL divergence 스무딩)

TAP (%)
153.2
2.553.7
554.0
7.553.8
1053.7
2053.5

T=5가 최적. 분포를 충분히 부드럽게 하여 효과적인 지식 전달을 하면서도, 너무 부드러워서 정보가 손실되지 않는 균형점이다.


8장: 2026년의 D-FINE — 위치 정밀도의 새로운 기준

D-FINE이 여는 새로운 방향

D-FINE의 기여는 단순히 "더 높은 AP"를 넘어선다. 이 논문이 제시하는 방향성 자체가 중요하다.

1. 회귀의 재정의. "좌표를 예측한다"에서 "분포를 정제한다"로의 전환은 객체 검출뿐 아니라, 포즈 추정, 키포인트 검출, 3D 객체 검출 등 모든 회귀 기반 비전 태스크에 적용 가능한 아이디어다.

2. 자기 증류의 효율성. 별도의 교사 모델 없이, 같은 네트워크 안에서 깊은 층이 얕은 층을 가르치는 GO-LSD 패턴은, 학습 비용 증가 없이 성능을 높이는 범용적 기법이 될 수 있다.

3. DETR 계열의 범용 플러그인. FDR과 GO-LSD가 Deformable-DETR, DAB-DETR, DN-DETR, DINO 모두에서 +2~5% AP를 달성한 것은, 이 방법론이 특정 아키텍처에 종속되지 않는 범용적 개선임을 증명한다.

실무에서의 의미

의료 영상: 종양이나 병변의 경계는 본질적으로 모호하다. D-FINE의 확률 분포 기반 접근은 "경계가 여기에 있을 가능성"을 명시적으로 모델링하여, 의사에게 불확실성 정보를 함께 제공할 수 있다.

자율주행: 보행자의 가장자리를 1~2픽셀 더 정확하게 검출하는 것은, 시속 60km에서 수십 센티미터의 판단 차이를 만든다. D-FINE의 위치 정밀도 향상은 안전과 직결된다.

산업 검사: 반도체 웨이퍼의 미세 결함이나 PCB의 작은 불량을 검출할 때, 정확한 위치 정보가 필수적이다. D-FINE-N의 초경량 모델은 엣지 디바이스에서도 높은 위치 정밀도를 제공한다.


마치며 — 정밀함은 반복에서 나온다

D-FINE이 던지는 핵심 메시지는 이것이다.

"바운딩 박스의 가장자리 위치는 하나의 숫자가 아니라, 확률 분포다. 그리고 이 분포는 한 번에 완성되는 것이 아니라, 반복적으로 다듬어져야 한다."

이 통찰은 우아하면서도 실용적이다.

우리가 그림을 그릴 때를 생각해보자. 화가는 처음에 거친 스케치를 그리고, 점점 세밀한 선을 더하며, 마지막에 세부를 다듬는다. 처음부터 완벽한 선을 긋는 화가는 없다. 정밀함은 반복에서 나온다.

D-FINE은 이 원리를 객체 검출에 적용했다. 첫 레이어의 거친 분포에서 시작하여, 매 레이어마다 조금씩 다듬어, 마지막 레이어에서 날카로운 예측에 도달한다. 그리고 그 과정에서 축적된 지혜를, 다시 처음으로 전달하여 다음 반복을 더 쉽게 만든다.

55.8% AP, 59.3% AP. 이 숫자들은 인상적이지만, D-FINE의 진정한 가치는 숫자 너머에 있다. "어떻게 예측하는가"를 근본적으로 바꾸는 것 — 고정에서 분포로, 한 번에서 반복으로, 독학에서 자기 증류로. 이 방향의 전환이 앞으로의 객체 검출, 더 나아가 컴퓨터 비전 전체의 발전을 이끌어갈 것이다.


참고 자료

  • Peng, Y., Li, H., Wu, P., Zhang, Y., Sun, X., & Wu, F. (2024). "D-FINE: Redefine Regression Task in DETRs as Fine-grained Distribution Refinement." arXiv:2410.13842
  • Li, X. et al. (2020). "Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object Detection." NeurIPS 2020.
  • Zhao, Y. et al. (2024). "DETRs Beat YOLOs on Real-time Object Detection." CVPR 2024.
  • Carion, N. et al. (2020). "End-to-End Object Detection with Transformers." ECCV 2020.
  • Zheng, Z. et al. (2022). "Localization Distillation for Dense Object Detection." CVPR 2022.
  • Hinton, G. et al. (2015). "Distilling the Knowledge in a Neural Network."
  • 프로젝트: https://github.com/Peterande/D-FINE