MMD는 어떻게 분포를 벡터로 만드는가
Mean embedding으로 확률분포를 RKHS 벡터에 올리는 순간부터, Two-sample test·MMD-GAN·HSIC까지 하나의 철학이 관통하는 방식을 추적한다.
- 01 Kernel은 왜 Positive Definite여야 하는가
- 02 Kernel Method의 통일 원리: PD Kernel에서 계산까지
- 03 SVM은 왜 내적만으로 비선형이 되는가
- 04 GP는 왜 '함수에 대한 Bayesian prior'인가
- 05 커널 클러스터링은 왜 비구형 군집을 찾을 수 있는가
- 06 MMD는 어떻게 분포를 벡터로 만드는가
- 07 Kernel Method는 어디서 Neural Network와 만나는가
“두 분포가 같은가?”라는 질문에 답하려면 먼저 분포를 비교 가능한 객체로 만들어야 한다. KL divergence는 density를 알아야 하고, Kolmogorov-Smirnov는 1차원에만 쓸 수 있다. Maximum Mean Discrepancy(MMD)는 다른 길을 택한다 — 분포를 RKHS의 벡터 하나로 embedding한 뒤, 두 벡터의 거리를 잰다. 이 단순한 아이디어가 Two-sample test, 생성모델 학습, 독립성 검정을 하나의 언어로 묶어버리는 것은 왜인가?
분포를 RKHS에 올리기 — Mean Embedding
확률측도 의 mean embedding은 다음과 같이 정의된다.
각 점 에서 RKHS 원소 를 뽑아 에 대해 평균낸 것이다. RBF kernel을 쓰면 의 번째 Mercer 성분이 의 번째 kernel moment에 해당하므로, 하나가 분포의 모든 모멘트 정보를 담은 벡터가 된다.
재생성질 과 Fubini 정리를 결합하면 즉각 다음을 얻는다.
“에 대한 의 기댓값”이 “RKHS에서 와 의 내적”으로 바뀐다. 는 기댓값 연산을 내적으로 대체하는 대리자다.
MMD — RKHS 거리로서의 분포 차이
두 분포 , 의 mean embedding 사이 RKHS 거리를 Maximum Mean Discrepancy라 한다.
내적을 전개하면 샘플로 직접 계산할 수 있는 형태가 나온다.
세 항의 의미는 명확하다. 의 self-similarity, 의 self-similarity, 그리고 두 분포 사이의 cross-similarity. 이면 세 항이 정확히 상쇄되어 MMD = 0이 된다.
가 characteristic kernel이면, .
: 이면 이므로 .
: 이면 . Characteristic kernel의 정의에 의해 사상 는 단사이므로 .
이와 동치인 IPM(Integral Probability Metric) 해석이 있다.
Cauchy-Schwarz 등호 조건 에서 supremum이 달성된다. MMD는 “RKHS unit ball 안의 test function으로 두 분포를 가장 크게 구별할 수 있는 기댓값 차이”다. Total variation이 indicator function 전체를 허용하는 데 비해, MMD는 smooth function class만 허용하기 때문에 실용적이면서도 원칙적이다.
샘플 추정량 — Biased vs Unbiased
실무에서 MMD²은 샘플로 추정한다. 두 가지 추정량이 있다.
Biased 추정량은 경험적 mean embedding의 RKHS 거리를 그대로 제곱한 것이다. 항, 즉 를 포함하기 때문에 bias가 생긴다. Null() 상황에서도 양수 값을 가지므로 가설검정에 그대로 쓰면 안 된다.
**Unbiased 추정량(U-statistic)**은 쌍만 사용한다.
이며, bounded kernel() 하에서 Hoeffding 부등식으로 다음 집중 부등식을 얻는다.
수렴률은 이다. Polynomial kernel처럼 characteristic이 아닌 kernel을 쓰면 처음 개 모멘트만 비교하게 되어, 평균·분산이 같지만 왜도가 다른 두 분포를 구분하지 못하는 false negative가 발생한다.
가설검정에는 unbiased 추정량을 써야 한다. Null 분포가 0에 중심을 두기 때문이다. MMD-GAN 학습 손실로는 biased 추정량도 무방하다. 상수 shift는 gradient에 영향을 주지 않고, 분산이 약간 더 작아 학습이 안정적이다.
Two-Sample Test와 MMD-GAN — 같은 도구, 다른 목적
Two-sample test는 vs 를 를 검정통계량으로 삼아 수행한다. Critical value는 두 가지 방법으로 구한다.
점근 분포를 쓰면 Null 하에서 임을 Gretton et al.(2012)이 보였다. 은 centered kernel의 적분 연산자 고유값이다. 이 분포는 직접 다루기 복잡하므로 실무에서는 permutation test가 더 많이 쓰인다. 하에서 와 는 exchangeable하므로, label을 random shuffle한 뒤 MMD²를 반복 계산하면 유한 샘플에서 exact한 null 분포를 얻는다. Type-I error가 이하임이 수학적으로 보장된다.
MMD-GAN은 같은 MMD²를 generator의 손실함수로 삼는다.
Discriminator가 없다. Characteristic kernel 하에서 이므로 이론적으로 mode collapse의 “실패 모드”가 봉쇄된다. Gradient는 RBF kernel이 미분 가능하므로 backprop으로 직접 계산된다. 단일 목적함수이기 때문에 minimax 균형을 찾지 않아도 되어 학습이 안정적이다.
Multi-scale RBF
을 쓰면 coarse scale에서 fine scale까지 연속적인 gradient signal을 제공해 vanishing gradient를 완화한다. Raw pixel 위의 MMD는 고해상도 이미지에서 효과가 약하므로, Inception feature 위에서 Gaussian 근사로 Fréchet distance를 재는 FID는 사실상 deep feature space에서의 MMD에 해당한다.
HSIC와 조건부 Embedding — 같은 언어의 확장
Mean embedding의 핵심 통찰 — “분포를 Hilbert 공간 객체로 다룬다” — 은 독립성 검정과 조건부 추론으로 곧장 확장된다.
**HSIC(Hilbert-Schmidt Independence Criterion)**는 결합분포 의 mean embedding과 주변분포 곱 의 mean embedding 사이의 거리다.
Characteristic kernels , 하에서 . 샘플로는
으로 계산한다(는 centering matrix). Pearson correlation이 0인 같은 비선형 의존성도 HSIC는 감지한다.
조건부 mean embedding은 전체를 RKHS 원소 로 나타낸다. 추정은
이며, 이것은 정확히 Kernel Ridge Regression의 예측 공식이다. KRR은 scalar output을 예측하고, 조건부 mean embedding은 분포 전체를 예측한다는 점만 다르다. Distribution regression(분포 자체를 input으로 삼는 회귀)도 같은 맥락에서, 각 분포의 mean embedding을 feature로 삼아 그 위에서 kernel 회귀를 수행한다.
정리
- Mean embedding 는 분포를 RKHS 벡터로 바꾼다. Characteristic kernel 하에서 이 사상은 단사