SVM, Gaussian Process, Kernel Ridge Regression은 표면적으로 다른 알고리즘이다. 그런데 이 셋은 같은 수학적 구조 위에 서 있다 — 재생핵 힐베르트 공간(RKHS). 왜 이 공간이 필요한가? 그리고 이 공간의 어떤 성질이 무한차원 문제를 유한차원으로 축소시키는가?
점평가(Evaluation)가 연속이 아닐 수 있다
유한차원 Rd에서는 좌표 x를 꺼내는 것이 자명하게 연속이다. 무한차원 함수 공간에서는 그렇지 않다. L2[0,1]의 두 함수 f와 g는 거의 어디서나(almost everywhere) 같아도 특정 점에서 f(0.5)=g(0.5)일 수 있다. 측도 0인 집합에서 다를 수 있기 때문이다.
RKHS는 이 문제를 정면 돌파한다. 점평가 범함수 δx:f↦f(x)가 유계 선형범함수가 되도록 강제하는 힐베르트 공간이다. 즉,
∣f(x)∣≤Mx∥f∥H∀f∈H
가 성립해야 한다. Riesz 표현 정리에 의해 이 조건은 곧 각 x마다 유일한 kx∈H가 존재해서
f(x)=⟨f,kx⟩H
가 성립함을 뜻한다. 이것이 **재생성질(reproducing property)**이다. k(x,y):=⟨kx,ky⟩H로 정의된 함수 k:X×X→R가 재생핵이다.
재생핵의 대수적 구조 — 양정치성
어떤 함수 k가 재생핵이 될 수 있는 조건은 단순하다. 임의의 유한 점집합 {x1,…,xn}과 계수 αi에 대해
∑i,jαiαjk(xi,xj)≥0
이 성립하면 된다. 이를 양정치(positive definite) 커널이라 한다. 기하학적으로 이 조건은 “어떤 힐베르트 공간 H와 특성 맵 ϕ:X→H가 존재해서 k(x,y)=⟨ϕ(x),ϕ(y)⟩H“와 동치다.
✎ 트레이드오프
양정치 커널은 합, 양의 스칼라 배, 원소별 곱에 대해 닫혀 있다. 복합 커널 설계가 가능한 이유다. 반면 양정치가 아닌 커널을 SVM에 쓰면 그람 행렬이 PSD가 아니게 되어 쌍대 최적화 문제가 비볼록(non-convex)이 된다. 음의 고유값이 생기는 순간 “최대 마진”이라는 개념 자체가 무너진다.
역방향 질문이 더 중요하다. 양정치 커널이 주어졌을 때 어떤 RKHS가 존재하는가? Moore-Aronszajn 정리의 답은 명쾌하다.
정리 1
· Moore-Aronszajn
양정치 커널 k:X×X→R에 대해, 유일한 RKHS Hk가 존재하여 재생성질 f(x)=⟨f,k(⋅,x)⟩Hk를 만족한다.
▷ 증명
핵 함수들의 유한 선형결합으로 사전 공간 H0=span{k(⋅,x):x∈X}를 만들고, 양정치 조건으로부터 내적 ⟨∑αik(⋅,xi),∑βjk(⋅,yj)⟩:=∑i,jαiβjk(xi,yj)를 정의한다. 이 내적이 양정치임은 ∥∑αik(⋅,xi)∥2=∑i,jαiαjk(xi,xj)≥0에서 나온다. Hk:=H0 (완비화)로 정의하면, 내적의 연속성으로부터 완비 공간에서도 재생성질이 유지된다. 유일성은 완비화의 유일성에서 따른다. □
∎
이 정리의 의미: 커널 하나를 정의하는 것은 RKHS 하나를 정의하는 것과 완전히 동치다. 커널 엔지니어링이 곧 함수 공간 설계다.
Representer 정리 — 무한차원 최적화가 왜 유한차원이 되는가
커널 메서드의 실용성은 여기서 나온다. RKHS Hk에서 정규화된 손실 최소화 문제
minf∈Hk[∑i=1nL(yi,f(xi))+λ∥f∥Hk2]
의 최적해는 항상 훈련 데이터의 커널 함수로만 표현된다.
정리 2
· Representer 정리
위 최적화 문제의 모든 최적해 f∗는 f∗(x)=∑i=1nαik(x,xi) 형태를 가진다.
▷ 증명
직교 분해 Hk=H0⊕H0⊥에서 임의의 f=f∥+f⊥로 쓴다. 재생성질에 의해 f⊥⊥k(⋅,xi)이므로 f(xi)=f∥(xi) — 손실 항은 f⊥에 무관하다. 반면 노름은 ∥f∥2=∥f∥∥2+∥f⊥∥2≥∥f∥∥2. 따라서 f⊥=0이면 J(f∥)<J(f)로 최적성에 모순. □
∎
이로부터 무한차원 문제는 n개 계수 α의 최적화로 축소된다. 제곱 손실에서는 α=(K+λI)−1y로 닫힌 형태 해가 존재한다 — 이것이 **Kernel Ridge Regression(KRR)**이다.
Gaussian Process와 RKHS — 베이지안 관점의 동치
KRR과 Gaussian Process는 놀랍도록 가깝다. 사전분포 f∼GP(0,k)와 노이즈 모델 yi=f(xi)+ϵi, ϵi∼N(0,σ2) 아래에서 GP의 사후 평균은
μ(x∗)=k(x∗,X)[K+σ2I]−1y
이다. λ=σ2로 놓으면 KRR의 최적해와 정확히 일치한다.
두 관점의 차이는 정보다. KRR은 점 예측만 준다. GP는 예측 분산 σ2(x∗)=k(x∗,x∗)−k(x∗,X)[K+σ2I]−1k(X,x∗)까지 준다. 이 불확실성이 Bayesian Optimization의 획득 함수 UCB(x)=μ(x)+βσ(x)를 가능하게 한다.
정리
RKHS는 점평가 범함수의 연속성을 요구하는 유일한 힐베르트 공간 구조다.
양정치 커널과 RKHS는 일대일 대응한다 (Moore-Aronszajn). 커널 설계 = 함수 공간 설계.
Representer 정리는 무한차원 정규화 최적화를 n차원 문제로 축소한다. 커널 메서드가 계산 가능한 이유다.
GP 사후 평균과 KRR은 λ=σ2에서 동치다. 베이지안 관점이 불확실성 정량화를 추가한다.
SVM의 쌍대 문제, GP의 사후 추론, KRR의 정규화 — 이 셋은 RKHS라는 공통 언어의 다른 방언이다.