ML 코드에서 Ω를 쓸 일은 거의 없다. np.random.normal()을 호출하고, torch.distributions.Normal로 KL을 계산하고, VAE의 ELBO를 최적화한다. 그런데 이 모든 연산의 밑에는 하나의 수학적 구조가 있다. 왜 이산 분포와 연속 분포가 “같은” KL 공식을 쓰는가? 왜 Normalizing Flow의 log-likelihood가 야코비안 행렬식의 합으로 분해되는가?
확률변수는 함수다 — 랜덤성은 Ω에 있다
흔한 오해는 확률변수가 “랜덤한 값”이라는 것이다. 정확한 정의는 다르다.
X:(Ω,F,P)→(R,B(R))
X는 결정적 함수다. 랜덤성은 Ω 위의 확률 P에서 온다. ω∈Ω가 P에 따라 추출되면, X(ω)가 결정된다.
가측성 조건 {X≤x}∈F은 “수학적 엄밀성을 위한 장식”이 아니다. P(X≤x)가 의미를 가지려면 {X≤x}=X−1((−∞,x])가 F의 원소여야 한다 — P는 F 위에서만 정의되기 때문이다. 가측이 아닌 함수는 CDF도, PDF도 정의할 수 없다.
이 가측성의 실용적 함의: 연속함수, 단조함수, 신경망의 모든 활성화함수(ReLU, sigmoid, GELU)는 Borel 가측이다. 합성과 극한도 가측성을 보존한다. 즉 ML에서 만나는 거의 모든 함수는 자동으로 확률변수가 된다.
Push-forward — Ω가 사라지는 이유
X가 R 위에 새로운 측도를 만들어낸다.
PX(B):=P(X−1(B))=P(X∈B)
이것이 push-forward 측도PX=P∘X−1다. X의 “분포”는 R 위의 측도이고, Ω가 무엇이든 우리가 다루는 건 (R,B,PX)다.
명제 1
· Push-forward 측도는 확률측도
X:(Ω,F,P)→(R,B)가 가측함수이면, PX(B):=P(X∈B)는 (R,B) 위의 확률측도다.
▷ 증명
비음성·공집합·가산가법성 모두 P의 성질과 역상이 집합 연산을 보존한다는 사실에서 따라온다. PX(R)=P(Ω)=1. □
∎
이 정리가 “X의 분포”를 잘 정의된 객체로 만든다. ML에서 N(0,I)나 Bernoulli(p)를 쓸 때 Ω를 신경 쓰지 않는 이유가 여기 있다 — 분포는 이미 R 위의 측도로 완결되어 있다.
σ(X):={X−1(B):B∈B(R)}는 “X의 값으로 답할 수 있는 모든 사건의 모임”이다. VAE의 encoder qϕ(z∣x)가 σ(X)-가측이라는 말은 “z가 오직 x로 결정된다”는 의미다. RL의 가치함수 Vt=g(St)가 Markov property로 현재 상태만의 함수가 되는 것도 Doob-Dynkin 보조정리 — σ(X)-가측인 확률변수는 X의 함수다 — 의 직접적 귀결이다.
PMF와 PDF는 같은 것이다 — Radon-Nikodym
이산 분포는 PMF, 연속 분포는 PDF. 왜 같은 KL 공식을 쓰는가? 측도론의 답은 명확하다.
KL(P∥Q)=∫logdQdPdP
여기서 dP/dQ는 Radon-Nikodym 도함수다. P≪Q (Q에 절대연속)이면, 음이 아닌 가측함수 f가 존재해 P(A)=∫AfdQ를 만족한다. 이 f를 dP/dQ라 쓴다.
기준측도를 바꾸면 같은 정의에서 PMF와 PDF가 나온다.
기준측도 μ = 르베그 측도 → f=dPX/dm = PDF
기준측도 μ = 카운팅 측도 → f=dPX/d# = PMF
PMF와 PDF는 “같은 정의의 두 얼굴”이다. KL, score function ∇logp(x), Bayesian 사후분포의 Radon-Nikodym 표현 — 전부 이 통일적 언어로 쓰인다.
✎ 트레이드오프: 절대연속 가정의 한계
Radon-Nikodym이 적용되려면 P≪Q이어야 한다. 이 조건이 깨지면 도함수가 존재하지 않는다. Spike-and-slab prior(δ0 atom + 연속)와 Gaussian posterior 사이의 KL이 ∞가 되는 이유가 여기 있다. 이것이 sparse Bayesian deep learning에서 Gumbel-softmax 같은 연속 완화가 필요한 근본 이유다.
보험금 모델 PX=0.7δ0+0.3⋅Exp(1)처럼, Zero-inflated 모델, censored regression(Y=min(X,c)), Tobit 모델 — 모두 이산 + 연속의 혼합이다. Lebesgue-Stieltjes 적분 ∫gdF는 이 구분 없이 단일 표기로 처리한다.
∫gdF=∑ig(xi)⋅PX({xi})+∫g(x)f(x)dx
이것이 혼합 분포의 기댓값 계산 공식이다. PMF 부분과 PDF 부분이 자동으로 분리된다.
RealNVP의 affine coupling(z2=x2⋅exp(s(x1))+t(x1))이 lower triangular Jacobian을 갖는 이유는 이 log-det을 O(d)로 만들기 위해서다. 일반 affine z=Wx+b는 O(d3) log-det이 필요하다. VAE의 reparameterization trick z=μ+σ⋅ϵ도 affine 변수 변환 공식의 직접 응용이다.
정리
확률변수는 가측함수 X:Ω→R이고, 랜덤성은 Ω 위의 P에서 온다. Ω는 추상적 무대이며 우리가 다루는 것은 push-forward PX다.
PMF와 PDF는 Radon-Nikodym 도함수의 두 특수 케이스다 — 기준측도만 다를 뿐 정의는 동일하다.
임의 분포는 ac + disc + sc로 유일하게 분해되고, Lebesgue-Stieltjes 적분이 이를 단일 표기로 처리한다.
변수 변환 공식 fY=fX∘g−1⋅∣detJg−1∣은 Normalizing Flow, reparameterization trick, inverse transform sampling 모두의 수학적 기반이다.
ML 분포 모델링의 다양한 트릭들은 결국 같은 구조의 다른 표현이다. 측도론은 그것들을 하나의 언어로 묶는다.
REF
Blei, D. M., Ng, A. Y., and Jordan, M. I. · 2003 · Latent Dirichlet Allocation · Journal of Machine Learning Research