IQ Lab
← all posts
AI 2026.04.28 · 11 min read Advanced

수렴이란 무엇인가 — LLN, CLT, 그리고 Monte Carlo까지

확률수렴·거의확실수렴·분포수렴의 정확한 의미부터 대수의 법칙과 중심극한정리의 증명, Monte Carlo의 차원 무관 수렴률까지 추적한다.


ML 논문에서 “수렴”이라는 단어는 아무 맥락 없이 쓰인다. SGD가 수렴한다, MLE가 수렴한다, Monte Carlo 추정이 수렴한다. 그런데 이 수렴들은 모두 다른 의미다. XnXX_n \to X라는 기호 하나에 최소 네 가지 다른 정의가 들어 있고, 그 강도 차이가 알고리즘 보장의 강도를 결정한다. 어느 의미의 수렴을 주장하고 있는가?

수렴의 네 가지 얼굴

네 종류의 수렴은 강도 순으로 다음과 같이 정리된다.

a.s.    in prob    in distandLp    in prob\text{a.s.} \;\Rightarrow\; \text{in prob} \;\Rightarrow\; \text{in dist} \qquad\text{and}\qquad L^p \;\Rightarrow\; \text{in prob}

거의확실수렴(a.s.): P(limnXn(ω)=X(ω))=1\mathbb{P}(\lim_{n\to\infty} X_n(\omega) = X(\omega)) = 1. 거의 모든 표본경로 ω\omega가 수렴한다. 가장 강하다.

확률수렴(in probability): 모든 ε>0\varepsilon > 0에 대해 limnP(XnX>ε)=0\lim_n \mathbb{P}(|X_n - X| > \varepsilon) = 0. “큰 차이가 생기는 사건의 확률이 0으로 간다”는 진술이지, 각 경로가 수렴한다는 진술이 아니다.

LpL^p 수렴: E[XnXp]0\mathbb{E}[|X_n - X|^p] \to 0. Markov 부등식으로 바로 in probability를 함의한다.

분포수렴(in distribution): FXF_X의 연속점 xx에서 FXn(x)FX(x)F_{X_n}(x) \to F_X(x). 분포만 비교하며 확률변수 자체는 비교하지 않는다. 가장 약하다.

역이 성립하지 않는 반례들

역이 일반적으로 성립하지 않는다는 것이 핵심이다. Typewriter sequence는 in probability이지만 a.s.가 아니다: Xn=1[j/2k,(j+1)/2k]X_n = \mathbf{1}_{[j/2^k,\, (j+1)/2^k]} (여기서 n=2k+jn = 2^k + j)는 P(Xn=1)=1/2k0\mathbb{P}(X_n = 1) = 1/2^k \to 0이므로 in probability로 0에 수렴하지만, 임의의 ω(0,1)\omega \in (0,1)에서 Xn(ω)=1X_n(\omega) = 1이 무한 번 발생한다. Spike sequence Xn=n1[0,1/n]X_n = n \cdot \mathbf{1}_{[0, 1/n]}은 a.s. 0에 수렴하지만 E[Xn]=1\mathbb{E}[|X_n|] = 1L1L^1 수렴하지 않는다. a.s.와 LpL^p는 서로를 함의하지 않으며 이 두 반례가 그 사실을 보여 준다.

트레이드오프

수렴 종류 선택은 어떤 보장이 실제로 필요한가에 달려 있다. MCMC에서는 경로 전체의 안정성(a.s.)이 필요하고, PAC learning에서는 확률 수렴으로 충분하다. Heavy-tail 분포에서는 LpL^p 가정 자체가 깨질 수 있으므로 in probability로 후퇴해야 한다.

Slutsky 정리는 약한 수렴에서 강한 결론을 끌어내는 도구다. XndXX_n \xrightarrow{d} X이고 YnpcY_n \xrightarrow{p} c (상수)이면 Xn+YndX+cX_n + Y_n \xrightarrow{d} X + c. MLE 점근 분석에서 표준오차 추정량 σ^npσ\hat\sigma_n \xrightarrow{p} \sigma를 알면 n(θ^θ0)/σ^ndN(0,1)\sqrt{n}(\hat\theta - \theta_0)/\hat\sigma_n \xrightarrow{d} \mathcal{N}(0,1)이 된다. 분포 수렴만으로는 이 결론에 도달할 수 없고 추가 조건인 확률 수렴이 필요하다.

약법칙과 강법칙 — 같은 결론, 다른 강도

대수의 법칙(LLN)은 두 형태가 있다.

약법칙(WLLN): {Xi}\{X_i\} i.i.d., E[Xi]=μ\mathbb{E}[X_i] = \mu, Var(Xi)=σ2<\text{Var}(X_i) = \sigma^2 < \infty이면 Xˉnpμ\bar X_n \xrightarrow{p} \mu. 증명은 Chebyshev 부등식 한 줄이다.

P(Xˉnμε)Var(Xˉn)ε2=σ2nε20\mathbb{P}(|\bar X_n - \mu| \geq \varepsilon) \leq \frac{\text{Var}(\bar X_n)}{\varepsilon^2} = \frac{\sigma^2}{n\varepsilon^2} \to 0

분산이 σ2/n\sigma^2/n으로 감소한다는 관찰이 전부다. Khintchine의 WLLN은 분산 가정조차 제거한다 — L1L^1만으로 충분하다. 특성함수 φ(t/n)neiμt\varphi(t/n)^n \to e^{i\mu t}이고 Lévy 연속정리로 분포 수렴이 나오며, 상수로의 분포 수렴은 확률 수렴을 함의한다.

강법칙(SLLN): 같은 결론 Xˉnμ\bar X_n \to \mu이지만 in probability가 아니라 a.s.다.

WLLN: 특정 n에서 P(|X̄_n - μ| > ε) → 0
      (각 n마다 오차가 클 확률이 작아짐)

SLLN: P({ω : X̄_n(ω) → μ}) = 1
      (한 번 추출된 경로 전체가 수렴)
정리 1 · Kolmogorov SLLN

{Xi}\{X_i\} i.i.d., E[Xi]<\mathbb{E}[|X_i|] < \infty이면 Xˉna.s.μ\bar X_n \xrightarrow{a.s.} \mu.

▷ 증명

L4L^4 가정 하의 단순 증명. E[(Xˉnμ)4]=O(1/n2)\mathbb{E}[(\bar X_n - \mu)^4] = O(1/n^2). Markov로

P(Xˉnμ>ε)Cn2\mathbb{P}(|\bar X_n - \mu| > \varepsilon) \leq \frac{C}{n^2}

1/n2<\sum 1/n^2 < \infty이므로 Borel-Cantelli 제1 정리: P(Xˉnμ>ε i.o.)=0\mathbb{P}(|\bar X_n - \mu| > \varepsilon \text{ i.o.}) = 0 for all ε>0\varepsilon > 0. 따라서 Xˉna.s.μ\bar X_n \xrightarrow{a.s.} \mu. \square

Kolmogorov 0-1 법칙은 {Xˉnμ}\{\bar X_n \to \mu\}가 tail event임을 보장하므로 이 사건의 확률은 0 또는 1이다. SLLN은 그것이 1임을 확정한다. Glivenko-Cantelli 정리는 이를 균등 수렴으로 강화한다.

supxRF^n(x)F(x)a.s.0\sup_{x \in \mathbb{R}} |\hat F_n(x) - F(x)| \xrightarrow{a.s.} 0

PAC learning의 generalization 보장은 여기서 시작한다.

중심극한정리 — 수렴의 모양

LLN은 Xˉn\bar X_nμ\mu로 수렴한다고 말한다. CLT는 그 수렴의 속도와 형태를 명시한다.

정리 2 · Classical CLT

{Xi}\{X_i\} i.i.d., E[Xi]=μ\mathbb{E}[X_i] = \mu, Var(Xi)=σ2(0,)\text{Var}(X_i) = \sigma^2 \in (0, \infty)이면

Zn:=n(Xˉnμ)σdN(0,1)Z_n := \frac{\sqrt{n}(\bar X_n - \mu)}{\sigma} \xrightarrow{d} \mathcal{N}(0, 1)
▷ 증명

WLOG μ=0\mu = 0, σ=1\sigma = 1. 특성함수는

φZn(t)=φY(t/n)n\varphi_{Z_n}(t) = \varphi_Y(t/\sqrt{n})^n

Taylor 전개: E[Y]=0\mathbb{E}[Y] = 0, E[Y2]=1\mathbb{E}[Y^2] = 1이므로 φY(s)=1s2/2+o(s2)\varphi_Y(s) = 1 - s^2/2 + o(s^2). 따라서

φY(t/n)=1t22n+o(1/n)\varphi_Y(t/\sqrt{n}) = 1 - \frac{t^2}{2n} + o(1/n)

이를 nn제곱하면

φZn(t)=(1t22n+o(1/n))net2/2\varphi_{Z_n}(t) = \left(1 - \frac{t^2}{2n} + o(1/n)\right)^n \to e^{-t^2/2}

et2/2e^{-t^2/2}N(0,1)\mathcal{N}(0,1)의 특성함수다. Lévy 연속정리에 의해 ZndN(0,1)Z_n \xrightarrow{d} \mathcal{N}(0,1). \square

증명의 핵심은 세 단계다: 합의 특성함수가 곱으로 분해되고, Taylor 전개로 각 인수를 근사하며, 극한이 알려진 특성함수로 수렴한다. Lindeberg-Feller 일반화는 i.i.d. 가정을 제거한다 — “어떤 단일 항도 합 전체를 지배하지 않는다”는 Lindeberg 조건만으로 충분하다. Berry-Esseen 정리는 수렴 속도를 정량화한다.

supxFZn(x)Φ(x)Cρσ3n\sup_x |F_{Z_n}(x) - \Phi(x)| \leq \frac{C\rho}{\sigma^3 \sqrt{n}}

O(1/n)O(1/\sqrt{n}) 균등 수렴이다. MLE의 점근 정규성 n(θ^θ0)dN(0,I1)\sqrt{n}(\hat\theta - \theta_0) \xrightarrow{d} \mathcal{N}(0, I^{-1}), 신뢰구간, A/B 테스트의 정규 근사 — 전부 이 정리의 응용이다.

Monte Carlo — 차원의 저주 없는 수렴

Monte Carlo 적분은 LLN과 CLT가 만나는 지점이다. 목표: I=Ep[f(X)]I = \mathbb{E}_p[f(X)]. 추정량: I^n=1nf(Xi)\hat I_n = \frac{1}{n} \sum f(X_i).

  • 일관성 (SLLN): I^na.s.I\hat I_n \xrightarrow{a.s.} I
  • 오차 분포 (CLT): n(I^nI)dN(0,σf2)\sqrt{n}(\hat I_n - I) \xrightarrow{d} \mathcal{N}(0, \sigma_f^2)
  • 표준오차: σf/n\sigma_f / \sqrt{n}차원 dd에 무관

격자 적분(Riemann)은 dd차원에서 정확도 O(nk/d)O(n^{-k/d})를 얻는다. 차원이 늘수록 같은 정확도에 지수적으로 많은 점이 필요하다. Monte Carlo는 O(1/n)O(1/\sqrt{n}) 수렴률이 차원과 독립이다. Importance Sampling은 분산을 줄인다. w(x)=p(x)/q(x)w(x) = p(x)/q(x)로 가중하면

I^nIS=1nw(Xi)f(Xi)a.s.I\hat I_n^{\text{IS}} = \frac{1}{n}\sum w(X_i) f(X_i) \xrightarrow{a.s.} I

최적 제안 분포 q(x)f(x)p(x)q^*(x) \propto |f(x)| p(x)에서 분산이 0이 된다. VAE의 ELBO 추정, policy gradient, MCMC 사후 추정 모두 이 틀 안에 있다.

정리

  • 수렴 종류는 강도가 다르다: a.s. \Rightarrow in prob \Rightarrow in dist, LpL^p $\Rightarrow