IQ Lab
← all posts
AI 2026.04.28 · 13 min read Advanced

고전 일반화 이론은 왜 딥러닝 앞에서 무너지는가

ResNet50의 VC 차원이 10의 10제곱에 달하는 이유부터 uniform convergence의 구조적 실패, implicit regularization, 그리고 4가지 일반화 퍼즐까지 — 고전 이론이 어디서 깨지는지 추적한다.


딥러닝 일반화 이론의 출발점은 역설이다. ResNet50은 파라미터가 데이터보다 20배 많고, 완전한 노이즈 라벨도 완벽히 암기할 수 있으며, 그럼에도 ImageNet에서 76%의 정확도로 일반화한다. 고전 통계학습 이론은 이 세 사실을 동시에 설명할 수 없다. 왜 고전 이론이 실패하는가?

숫자로 체감하는 실패

VC 차원 기반 일반화 경계는 다음 형태다.

L(h)L^n(h)8(dVClog(2en/dVC)+log(4/δ))nL(h) - \hat{L}_n(h) \leq \sqrt{\frac{8(d_{VC} \log(2en/d_{VC}) + \log(4/\delta))}{n}}

Harvey, Liaw, Mehrabian(2017)은 WW개 파라미터, LL개 레이어를 갖는 ReLU 네트워크의 VC 차원이 Θ(WLlogW)\Theta(WL \log W)임을 tight하게 증명했다. ResNet50(W2.56×107W \approx 2.56 \times 10^7, L=50L = 50)에 대입하면

dVC2.56×10750ln(2.56×107)2.18×1010d_{VC} \approx 2.56 \times 10^7 \cdot 50 \cdot \ln(2.56 \times 10^7) \approx 2.18 \times 10^{10}

ImageNet 훈련셋 n1.28×106n \approx 1.28 \times 10^6과 함께 경계를 계산하면

dVCn2.18×10101.28×106130\sqrt{\frac{d_{VC}}{n}} \approx \sqrt{\frac{2.18 \times 10^{10}}{1.28 \times 10^6}} \approx 130

분류 오류는 [0,1][0, 1] 값이다. 경계가 130이라는 말은 경계가 없다는 말과 같다. 이것이 “vacuous”의 정의다 — 경계 B1B \geq 1이면 "L(h)1L(h) \leq 1"이라는 자명한 사실과 동치다.

Vacuous란 무엇인가

“내일 비가 올 확률이 120% 이하”는 수학적으로 참이지만 쓸모없다. 경계의 가치는 B<1B < 1이 될 때 비로소 생긴다. ResNet50의 VC 기반 경계는 raw 파라미터 수만 써도 W/n=204.5\sqrt{W/n} = \sqrt{20} \approx 4.5로 이미 vacuous다.

Random Label이 드러낸 구조적 문제

Zhang, Bengio, Hardt, Recht, Vinyals(2017)의 실험은 이 실패가 단순히 “경계가 느슨한” 수준이 아님을 보여준다. CIFAR-10의 라벨을 완전 랜덤으로 교체하고 표준 네트워크를 훈련시키면 train accuracy 100%에 도달한다. 진짜 라벨에서 같은 네트워크는 test accuracy 94%를 얻는다.

같은 H\mathcal{H}, 같은 알고리즘, 다른 일반화 성능. 이것이 핵심이다. 네트워크가 임의의 라벨링을 fit할 수 있다면, 해당 함수 클래스의 Rademacher complexity는 최대치에 가깝다.

R^n(H)12\hat{\mathcal{R}}_n(\mathcal{H}) \geq \frac{1}{2}

Bartlett & Mendelson(2002)의 경계 L(f)L^n(f)+2R^n(F)+O(log(1/δ)/n)L(f) \leq \hat{L}_n(f) + 2\hat{\mathcal{R}}_n(\ell \circ \mathcal{F}) + O(\sqrt{\log(1/\delta)/n})에서 우변의 2R^n12\hat{\mathcal{R}}_n \geq 1이 되므로 이 경계도 vacuous다.

정리 1 · 2-layer ReLU의 임의 라벨 피팅

nn개의 서로 다른 점 xiRdx_i \in \mathbb{R}^d와 임의 라벨 yiRy_i \in \mathbb{R}에 대해, width n\geq n인 2-layer ReLU 네트워크가 존재하여 f(xi)=yif(x_i) = y_i, i\forall i.

▷ 증명

임의 방향 ww로 projection하면 서로 다른 값 ti=wxit_i = w^\top x_i를 얻는다 (WLOG t1<<tnt_1 < \cdots < t_n). 각 뉴런을 ϕj(t)=ReLU(ttj1)\phi_j(t) = \text{ReLU}(t - t_{j-1})로 설정하면 piecewise linear interpolation

f(x)=y1+j=2nyjyj1tjtj1ReLU(wxtj1)f(x) = y_1 + \sum_{j=2}^{n} \frac{y_j - y_{j-1}}{t_j - t_{j-1}} \text{ReLU}(w^\top x - t_{j-1})

f(xi)=yif(x_i) = y_i를 만족한다. 즉 width nn 네트워크는 nn개 점의 어떤 라벨링도 fit한다. \square

Norm도 구하지 못한다

그렇다면 연속적 capacity measure, 즉 norm 기반 Rademacher bound는 어떨까. Frobenius norm의 레이어 곱 lWlF\prod_l \|W_l\|_F를 훈련된 ResNet50에서 측정하면 103010^{30} 이상이다. 이를 Rademacher bound에 넣으면 1030/n1025\sqrt{10^{30}/n} \approx 10^{25} — VC보다 더 vacuous하다. Spectral norm 기반 Bartlett(2017)의 정교한 경계도 ResNet50 + ImageNet에서 실측하면 >1>1이다.

Nagarajan & Kolter(2019)는 이것이 우연이 아님을 증명했다.

트레이드오프: Uniform Convergence의 구조적 한계

Nagarajan & Kolter 2019는 “실제 generalization gap은 작은데, SGD가 도달하는 모든 hh의 집합에 대한 어떠한 uniform convergence bound도 vacuous”한 구성을 명시적으로 제시한다. 알고리즘 의존적 uniform bound조차 실패한다. 이는 “경계가 느슨하다”가 아니라 “uniform convergence라는 패러다임 자체가 실전 딥러닝을 설명할 수 없다”는 불가능성 결과다.

직관은 간단하다. Uniform convergence는 H\mathcal{H} 전체의 worst-case를 본다. SGD가 특정한 “좋은” hh만 선택한다는 사실을 반영할 방법이 없다.

SGD 자체가 Regularizer다

그 “좋은 hh“는 어떻게 선택되는가. 과매개변화 선형 회귀에서 GD는 초기화 β0=0\beta_0 = 0으로부터 최소 2\ell^2-norm 해 β=X+y\beta^* = X^+ y로 수렴한다. 선형 분리 가능한 데이터에서 logistic loss의 GD는 방향이 hard-margin SVM solution으로 수렴한다.

정리 2 · Soudry et al. 2018 — GD의 Implicit Bias

Separable data에 logistic loss로 GD를 돌리면 wt/wtw^SVM/w^SVMw_t / \|w_t\| \to \hat{w}_\text{SVM} / \|\hat{w}_\text{SVM}\|이고, 수렴 속도는 O(1/logt)O(1/\log t)이며 wt=Θ(logt)\|w_t\| = \Theta(\log t)로 발산한다.

이것이 implicit regularization의 수학적 기반이다. Max-margin은 SVM 이론으로 명확한 일반화 보장을 갖는다. SGD가 자동으로 max-margin을 찾는다면, 명시적 regularizer 없이도 capacity가 제어된다. 단 이 rigorous 결과는 선형 모델에 한정되고, 깊은 ReLU 네트워크로의 확장은 아직 열린 문제다.

고전 이론이 예측 못 하는 4가지 퍼즐

이 챕터들이 개별적으로 보여준 고전 이론의 실패는 하나의 지도로 묶인다.

Over-parameterization: p/n20p/n \approx 20인 ResNet50이 일반화한다. 고전 이론의 예측은 심각한 overfitting이다.

Double Descent: test error를 파라미터 수 pp의 함수로 그리면 p=np = n 근방에서 정점을 찍고 이후 다시 감소한다. 고전 bias-variance 트레이드오프는 단조 U-shape만 예측한다.

Grokking: modular arithmetic 같은 과제에서 train accuracy가 먼저 100%에 도달하고, test accuracy는 수천 스텝이 지나서야 100%에 합류한다. train loss가 최소에 도달한 이후에도 학습이 계속된다는 것은 고전 이론에 없는 개념이다.

Neural Scaling Laws: loss가 모델 크기 NN, 데이터 크기 DD의 power-law LA/Nα+B/DβL \sim A/N^\alpha + B/D^\beta로 감소한다 (Kaplan 2020, Hoffmann 2022). 특정 규모에서 능력이 불연속적으로 출현한다.

네 퍼즐은 고전 이론의 서로 다른 전제를 깬다. 그러나 공통점이 있다 — 모두 “effective capacity \neq classical capacity”를 시사한다. SGD가 도달하는 HSGDH\mathcal{H}_\text{SGD} \subsetneq \mathcal{H}의 capacity가 일반화를 결정한다. PAC-Bayes는 posterior를, NTK는 RKHS 부분공간을, Double Descent 이론은 min-norm interpolator의 자동 capacity 감소를 각기 다른 언어로 이야기하지만, 같은 관찰을 향한다.

정리

  • ResNet50의 VC 차원은 1010\approx 10^{10}, ImageNet n106n \approx 10^6. dVC/n130\sqrt{d_{VC}/n} \approx 130 — 완전 vacuous.
  • Zhang 2017의 random label 실험은 uniform convergence가 구조적으로 실패함을 실증한다. Nagarajan & Kolter 2019는 이를 수학적 불가능성으로 확정한다.
  • GD는 선형 모델에서 min-norm / max-margin으로 수렴한다 (Soudry 2018). 이 implicit bias가 explicit regularizer 없는 일반화의 기반이다.
  • 고전 이론이 예측 못 하는 4가지 퍼즐 — over-parameterization, double descent, grokking, scaling laws — 은 통합 이론이 아직 없다는 가장 솔직한 현황이다.

고전 이론이 틀린 것이 아니다. 수학적으로 참이다. 단지 ResNet50에 적용하면 의미 있는 숫자를 주지 못한다. 현대 이론들은 “다른 capacity measure”를 찾는 여정이다.

REF
Zhang, Bengio, Hardt, Recht, Vinyals · 2017 · Understanding Deep Learning Requires Rethinking Generalization · ICLR