생성 모델의 통합 프레임워크 — 무엇을 배우는가
Discriminative와 Generative의 수학적 차이부터 KL 최소화 통합 관점, IS·FID·NLL 평가 지표까지, 생성 모델을 하나의 언어로 이해한다.
- 01 생성 모델의 통합 프레임워크 — 무엇을 배우는가
- 02 Autoregressive 모델은 왜 모든 modality를 생성할 수 있는가
- 03 VAE는 왜 latent를 포기하는가
- 04 Normalizing Flow의 모든 설계 결정은 하나의 제약에서 나온다
- 05 GAN은 왜 그토록 불안정한가
- 06 DDPM의 수학은 하나의 질문으로 수렴한다
- 07 생성 모델의 다섯 계보는 왜 하나의 질문에서 갈라지는가
AR, VAE, Flow, GAN, Diffusion — 다섯 family는 서로 완전히 다른 알고리즘처럼 보인다. 하지만 이들은 모두 하나의 질문에 대한 다른 대답이다. “모델 분포 를 데이터 분포 에 가깝게 만드는 방법은 무엇인가?” 그리고 “가깝다”는 기준이 무엇인지에 따라 모델의 구조와 훈련 방식이 달라진다.
두 패러다임의 수학적 뿌리
생성 모델을 이해하는 출발점은 discriminative와 generative의 차이를 정확히 아는 것이다.
Discriminative는 만 학습한다. 결정 경계에 모델 용량을 집중하고, 데이터 분포 전체는 무시한다. Generative는 또는 를 학습한다. 데이터가 어떻게 생겼는지를 통째로 모델링해야 한다.
Bayes 정리가 두 패러다임을 연결한다.
라벨이 있는 generative 모델 가 있으면 Bayes로 discriminative 분류기를 자동으로 유도할 수 있다. 역방향은 불가능 — 만으로 를 복원할 수 없다. 이 비대칭이 generative 모델의 근본적 우위다.
Explicit vs Implicit — Likelihood를 계산할 수 있는가
5개 family를 나누는 두 번째 축은 likelihood의 계산 가능성이다.
- Tractable Explicit (AR, Flow): 를 closed-form으로 계산 가능. MLE를 SGD로 직접 풀 수 있다.
- Bounded Explicit (VAE, Diffusion): 자체는 intractable하지만 lower bound 가 존재한다.
- Implicit (GAN, EBM): 를 직접 평가할 수 없다. 샘플링 또는 unnormalized score만 제공한다.
가 closed-form으로 계산 가능하기 위해서는 모델이 (i) AR factorization, (ii) invertible transformation, 또는 (iii) latent 없는 closed-form density 형태여야 한다.
AR은 chain rule 로 forward pass 1회에 평가 가능하다. Flow는 invertible 와 change of variables
로 exact 계산이 가능하다. 임의의 NN decoder와 continuous latent를 조합하면 marginal 가 일반적으로 intractable하다. 이것이 VAE가 ELBO만 주는 이유다. GAN의 generator 는 lower-dimensional manifold로의 push-forward이므로 ambient space에서 density 자체가 singular하다.
VAE의 ELBO gap은 이다. Amortized inference 가 true posterior와 일치할 때만 ELBO = . 일반적인 NN으로는 이 gap이 항상 존재한다.
모든 모델은 KL 최소화다
세 번째이자 가장 강력한 통합이다. 5개 family의 서로 다른 objective는 사실 같은 목표의 다른 근사다.
데이터 에 대해, 일 때
큰 수의 법칙으로 . 그리고
는 와 무관하므로, 에 대한 maximization은 minimization과 동치다.
각 family가 어떤 divergence를 최소화하는지를 표로 정리하면 다음과 같다.
| 모델 | 최소화 대상 | 방식 |
|---|---|---|
| AR | Forward KL (exact) | 직접 NLL |
| Flow | Forward KL (exact) | Change-of-variables |
| VAE | Forward KL (하한) | ELBO 최대화 |
| Diffusion | Weighted forward KL | Chain 분해, |
| GAN | JSD | Adversarial minimax |
| WGAN | Wasserstein-1 | 1-Lipschitz constraint |
Forward KL 는 mass-covering이다. 인 곳에 가 없으면 발산하므로, 모든 mode를 cover해야 한다. 이것이 VAE 이미지가 blurry한 이유다.
Reverse KL 는 mode-seeking이다. 인 곳에 가 있어야 하므로, 가 의 일부 mode만 선택한다. GAN의 mode collapse가 reverse KL적 행동의 극단적 사례다.
GAN의 훈련이 불안정한 수학적 이유가 여기 있다. Support가 겹치지 않는 와 에서 이지만, JSD는 로 상수다. Gradient가 0이 되어 훈련이 멈춘다. WGAN이 Wasserstein distance를 사용하는 동기다 — transport-based metric은 support가 겹치지 않아도 연속적이고 미분 가능하다.
Diffusion은 이 구분을 hybrid로 넘어선다. ELBO로 likelihood를 평가하면서 (bounded explicit), score matching으로 implicit-style 샘플을 생성한다. Chain을 따라 분해된 forward KL이 sharpness와 coverage를 동시에 유지하는 구조다. 이것이 2020년 이후 diffusion이 다른 모든 family를 압도한 이유다.
평가: 무엇을 측정하는가
좋은 생성 모델이란 무엇인가. 이 질문의 어려움이 평가 지표의 다양성을 만들었다.
IS (Inception Score)는 mutual information 의 지수다. 각 샘플이 분류기에서 confident하고 (낮은 ), 전체적으로 다양한 클래스에 분포할 때 (높은 ) 크다. 단, within-class diversity를 무시한다.
FID는 Inception feature space에서 두 분포를 Gaussian으로 가정하고 Fréchet distance를 측정한다.
실제로는 Wasserstein-2 distance의 Gaussian 근사다. Gaussian 가정이 깨지면 FID가 misleading할 수 있다.
Precision/Recall은 FID로 포착하지 못하는 quality vs diversity를 분해한다. Precision은 생성 샘플이 진짜 manifold 안에 있는 비율(품질), Recall은 진짜 샘플이 생성 manifold로 cover되는 비율(다양성)이다. GAN은 보통 high precision, low recall. VAE는 반대. Diffusion은 둘 다 높다.
NLL (bits per dimension)은 정보론적으로 엄밀하지만 implicit 모델에는 적용할 수 없고, sample quality와 상관관계가 약하다 (Theis et al., 2016). 동일한 NLL을 가진 두 모델이 perceptual quality에서 극단적으로 다를 수 있다.
단일 metric으로 생성 모델을 평가하지 말아야 한다. NLL은 mode coverage에 민감하지만 per-sample sharpness에 둔감하다. FID는 반대다. Precision/Recall은 둘을 분해하지만 Inception 의존성이 있다. Text-to-image 시대에는 CLIP score가 alignment를 측정하는 표준이 됐다. 사용 사례에 따라 조합해야 한다.
정리
- Generative는 discriminative를 포함한다 — Bayes로 에서 를 유도할 수 있지만, 역방향은 불가능하다.
- Explicit/Implicit의 구분은 아키텍처 결정이다. Exact likelihood와 expressive latent는 양립하기 어렵고, 이것이 Flow vs VAE의 근본 trade-off다.
- 모든 생성 모델은 divergence 최소화다. 어떤 divergence를 선택하느냐가 mass-covering/mode-seeking 성향과 훈련 안정성을 결정한다.
- NLL과 FID는 서로 다른 차원을 측정한다. Diffusion이 SOTA인 이유는 두 metric을 동시에 잘 하기 때문이다.
다음 챕터에서는 AR 모델이 chain rule factorization으로 exact likelihood를 구현하는 방법과, sequential 구조가 만드는 generation 속도 병목을 구체적으로 추적한다.