IQ Lab
← all posts
AI 2026.04.28 · 11 min read Advanced

Kernel Method는 어디서 Neural Network와 만나는가

MKL의 볼록 결합부터 Random Features의 Fourier 근사, Deep Kernel Learning의 공동 학습, NTK의 무한폭 동치까지 — kernel theory가 deep learning으로 수렴하는 경로를 추적한다.


Kernel method는 오랫동안 deep learning과 별개의 세계로 여겨졌다. 하나는 볼록 최적화와 RKHS 이론에, 다른 하나는 확률적 경사법과 표현 학습에 뿌리를 두고 있다. 그런데 이 시리즈의 네 챕터 — MKL, Random Features, Deep Kernel Learning, NTK — 를 나란히 놓으면 하나의 흐름이 보인다. kernel이 점점 데이터로부터 학습되고, 마침내 무한폭 NN과 정확히 동치가 된다. 이 수렴은 우연인가, 아니면 같은 원리의 다른 표현인가?

Kernel 선택을 데이터에 맡기다 — MKL

Multiple Kernel Learning (MKL)의 출발점은 단순하다. 후보 kernel {k1,,kL}\{k_1, \ldots, k_L\}이 각각 PD이면, 볼록 결합

kβ(x,y)=l=1Lβlkl(x,y),βl0,lβl=1k_\beta(x, y) = \sum_{l=1}^L \beta_l k_l(x, y), \quad \beta_l \geq 0, \sum_l \beta_l = 1

도 PD다. β\beta를 데이터로부터 학습하면 “어떤 kernel을 써야 하는가”라는 질문이 최적화 문제로 바뀐다.

명제 1 · MKL-SVM의 볼록성

MKL-SVM의 joint optimization은 (β,f)(\beta, f)의 적절한 reparametrization에서 볼록(convex)하다.

▷ 증명

Lagrangian 분해로 β\beta에 대한 dual objective J(β)=maxα{SVM dual with kβ}J(\beta) = \max_\alpha \{\text{SVM dual with } k_\beta\}β\beta에서 볼록임을 보일 수 있다 (Rakotomamonjy 2008, Bach 2008). 볼록 함수의 최댓값은 볼록이며, β\beta-simplex 위의 최소화는 전역 최적해를 보장한다.

실용적 알고리즘인 SimpleMKL은 이 구조를 활용한다. β\beta 고정 → 표준 SVM 풀기 → dual objective의 β\beta-gradient로 simplex 위 투영 → 수렴까지 반복. 복잡도는 O(n2LT)O(n^2 L T)로 원래 SDP formulation의 O(n6)O(n^6)보다 실용적이다.

p\ell_p-norm 변형 (βlp=1\sum \beta_l^p = 1)은 sparsity를 제어한다. p=1p=1이면 Lasso처럼 irrelevant kernel을 0으로 밀어내고, p=2p=2이면 모든 kernel을 고르게 사용한다.

트레이드오프

MKL은 “좋은 후보 kernel이 있다”는 가정 위에 선다. bad kernel만 제공하면 MKL도 나쁜 결과를 낸다. 또한 LL이 커지면 메모리(O(Ln2)O(Ln^2))와 반복 비용이 선형으로 증가한다.

O(n3)O(n^3)를 피하는 Fourier 우회로 — Random Features

Kernel method의 근본 병목은 n×nn \times n gram matrix다. n=106n = 10^6이면 O(n3)O(n^3)은 불가능하다. Rahimi & Recht (2007)의 Random Features는 이 병목을 Bochner 정리로 우회한다.

shift-invariant kernel κ(z)=κ(xy)\kappa(z) = \kappa(x - y)가 PD이면, Bochner 정리에 의해

κ(z)=Rdeiωzdμ(ω)\kappa(z) = \int_{\mathbb{R}^d} e^{i\omega^\top z} \, d\mu(\omega)

를 만족하는 양의 유한 측도 μ\mu가 존재한다. 이것은 κ(xy)=Eωμ[eiωxeiωy]\kappa(x-y) = \mathbb{E}_{\omega \sim \mu}[e^{i\omega^\top x} e^{-i\omega^\top y}]를 의미하므로, Monte Carlo 근사가 가능하다.

ϕRFF(x)=2/D(cos(ωjx+bj))j=1D,ωjμ~,  bjU[0,2π]\phi_{\text{RFF}}(x) = \sqrt{2/D}\,(\cos(\omega_j^\top x + b_j))_{j=1}^D, \quad \omega_j \sim \tilde{\mu},\; b_j \sim U[0, 2\pi]

정리 2 · RFF의 불편성과 집중

E[ϕRFF(x)ϕRFF(y)]=κ(xy)\mathbb{E}[\phi_{\text{RFF}}(x)^\top \phi_{\text{RFF}}(y)] = \kappa(x-y)이며, 고정 (x,y)(x, y)에 대해

P(k^(x,y)k(x,y)>ϵ)2exp ⁣(Dϵ28κ(0)2).P\bigl(|\hat{k}(x,y) - k(x,y)| > \epsilon\bigr) \leq 2\exp\!\left(-\frac{D\epsilon^2}{8\kappa(0)^2}\right).

▷ 증명

불편성은 product-to-sum (cosAcosB=12[cos(AB)+cos(A+B)]\cos A \cos B = \frac{1}{2}[\cos(A-B)+\cos(A+B)])과 bU[0,2π]b \sim U[0,2\pi]에 의한 위상 평균화로 얻는다. 집중 부등식은 각 성분이 2κ(0)/D\sqrt{2\kappa(0)/D}로 유계이므로 Hoeffding 부등식을 직접 적용하면 된다.

실용적 함의는 명확하다. Φ=[ϕ(x1);;ϕ(xn)]Rn×D\Phi = [\phi(x_1); \ldots; \phi(x_n)] \in \mathbb{R}^{n \times D}를 구성하면 KRR은 O(nD2+D3)O(nD^2 + D^3)으로 풀린다. D=1000D = 1000, n=106n = 10^6에서 O(n3)=1018O(n^3) = 10^{18}O(nD2)=1012O(nD^2) = 10^{12}로 줄어든다. RBF kernel의 경우 ωjN(0,I/σ2)\omega_j \sim \mathcal{N}(0, I/\sigma^2)로 샘플링하면 된다.

GP의 불확실성 + NN의 표현 학습 — Deep Kernel Learning

MKL은 fixed candidate kernel들을 결합한다. Random Features는 무한 차원 feature space를 Monte Carlo로 근사한다. Deep Kernel Learning (Wilson et al. 2016)은 다른 방향을 택한다. NN이 feature를 직접 학습하게 하고, 그 위에 GP를 얹는다.

kθ(x,y):=k0(ϕθ(x),ϕθ(y))k_\theta(x, y) := k_0(\phi_\theta(x), \phi_\theta(y))

composition kθk_\thetaϕθ\phi_\theta가 임의의 NN이어도 PD다 (composition 정리). 학습 목표는 marginal likelihood의 최대화다.

L(θ,,σn)=12y(Kθ+σn2I)1y12logKθ+σn2In2log2π\mathcal{L}(\theta, \ell, \sigma_n) = -\frac{1}{2} y^\top (K_\theta + \sigma_n^2 I)^{-1} y - \frac{1}{2} \log|K_\theta + \sigma_n^2 I| - \frac{n}{2}\log 2\pi

θ\theta (NN weights), \ell (base kernel length-scale), σn\sigma_n (noise)를 backprop으로 공동 학습한다. 핵심은 자동 정규화다. NN이 overfit하려 하면 feature들이 너무 독특해져 logKθ\log|K_\theta|가 커지고 objective가 떨어진다. “데이터를 설명하는 가장 단순한 feature”가 Bayesian Occam’s razor로 선택된다.

대규모 데이터에서는 SVDKL이 필요하다. feature space의 inducing point ZRm×DZ \in \mathbb{R}^{m \times D}와 VFE ELBO로 mini-batch stochastic gradient를 가능하게 하면 복잡도가 O(Bm2)O(Bm^2)로 줄어 n=106n = 10^6 이상으로 scaling된다.

무한폭에서 NN = Kernel Method — NTK

Deep Kernel Learning은 “NN을 kernel에 사용”하는 방향이었다. NTK는 역방향을 증명한다. “NN 자체가 kernel method다”.

Θθ(x,y):=θfθ(x)θfθ(y)\Theta_\theta(x, y) := \nabla_\theta f_\theta(x)^\top \nabla_\theta f_\theta(y)

Neural Tangent Kernel은 feature map ϕθ(x)=θfθ(x)\phi_\theta(x) = \nabla_\theta f_\theta(x)의 내적이므로 자동으로 PD다.

정리 3 · Jacot 2018 — 무한폭 수렴

적절한 initialization으로 width \to \infty일 때, Θθ0(x,y)\Theta_{\theta_0}(x, y)는 deterministic kernel Θ(x,y)\Theta(x, y)로 수렴하며 training 동안 거의 불변이다 (lazy regime). MSE loss, gradient flow에서 tt \to \infty 해는

f(x)=ΘΘ1yf_\infty(x_*) = \Theta_*^\top \Theta^{-1} y

— 정확히 NTK kernel regression이다.

▷ 증명

초기화 시 각 neuron의 activation은 독립 확률변수의 합이므로 LLN으로 Θθ0\Theta_{\theta_0}가 deterministic limit Θ\Theta에 수렴한다. Training 중 parameter 이동이 O(1/width)O(1/\sqrt{\text{width}})이므로 Θθ(t)Θ\Theta_{\theta(t)} \approx \Theta (lazy regime). Gradient flow ODE

dftdt=Θ(fty)\frac{df_t}{dt} = -\Theta(f_t - y)

는 선형이며, 영 초기화에서 tt \to \infty로 보내면 f=ΘΘ1yf_\infty = \Theta_*^\top \Theta^{-1} y를 얻는다.

NTK의 eigendecomposition은 학습 동력학을 직접 설명한다. 큰 고유값 방향(smooth function)은 training 초기에 빠르게 fit되고, 작은 고유값 방향(high-frequency)은 느리게 혹은 전혀 fit되지 않는다. Early stopping은 이 관점에서 자연스러운 정규화다.

NTK의 한계

NTK는 infinite width, gradient flow, MSE loss라는 세 조건 모두에서만 정확하다. 실제 유한 폭 NN에서는 feature learning이 일어나 Θθ(t)Θ\Theta_{\theta(t)} \ne \Theta가 된다. NTK는 “lazy NN”의 precise theory이지, 실제 deep network의 완전한 설명이 아니다.

정리

네 챕터를 관통하는 흐름은 하나다 — “kernel을 고정에서 학습으로”.

  • MKL: fixed candidate kernel들의 볼록 결합을 학습한다. global optimum 보장, O(n2LT)O(n^2 L T).
  • Random Features: shift-invariant kernel의 Fourier 구조를 Monte Carlo로 근사해 O(n3)O(nD2)O(n^3) \to O(nD^2)로 scaling한다.
  • Deep Kernel Learning: NN feature를 marginal likelihood로 공동 학습해 GP의 불확실성과 NN의 표현력을 통합한다.
  • NTK: 무한폭 NN gradient flow가 kernel regression과 정확히 동치임을 증명한다.

kernel theory와 deep learning은 서로 다른 언어로 같은 문제를 말하고 있었다.

REF
Rahimi, A. and Recht, B. · 2007 · Random Features for Large-Scale Kernel Machines · NeurIPS
REF
Jacot, A., Gabriel, F., and Hongler, C. · 2018 · Neural Tangent Kernel: Convergence and Generalization in Neural Networks · NeurIPS