IQ Lab
← all posts
AI 2026.04.28 · 10 min read Advanced

손실 함수의 기하학 — 헤시안이 최적화를 지배하는 방식

다변수 테일러 전개의 2차 항부터 조건수와 수렴 속도의 관계까지, 경사하강법과 뉴턴 방법의 이론적 기반을 추적한다.


경사하강법은 왜 어떤 문제에서는 수십 번 만에 수렴하고 어떤 문제에서는 수천 번이 지나도 제자리인가? 딥러닝 학습에서 안장점은 정말 문제인가, 아니면 국소 최솟값이 문제인가? 이 질문들의 답은 모두 같은 곳에서 나온다 — 손실 함수의 2차 테일러 전개와 헤시안의 스펙트럼.

2차 테일러 전개 — 모든 최적화 이론의 출발점

C2C^2 함수 f:RnRf: \mathbb{R}^n \to \mathbb{R}에 대해 점 xx에서 방향 hh로의 전개는 다음과 같다.

f(x+h)=f(x)+f(x)h+12hHf(x)h+o(h2)f(x+h) = f(x) + \nabla f(x)^\top h + \frac{1}{2} h^\top H_f(x) h + o(\|h\|^2)

이 수식은 단순한 근사가 아니다. 경사하강법의 학습률 상한, 뉴턴 방법의 업데이트 규칙, L-smooth 조건의 수렴 보장이 전부 이 한 줄에서 유도된다.

정리 1 · 2차 다변수 테일러 정리

fC2f \in C^2이면, g(t)=f(x+th)g(t) = f(x + th)로 놓으면 g(t)=f(x+th)hg'(t) = \nabla f(x+th)^\top h, g(t)=hHf(x+th)hg''(t) = h^\top H_f(x+th) h이다. 단변수 테일러를 t=0t=0에서 t=1t=1까지 적용하면 위 전개식이 엄밀히 유도된다. 나머지 항은 HfH_f의 연속성에서 R2h22suptHf(x+th)Hf(x)=o(h2)|R_2| \leq \frac{\|h\|^2}{2}\sup_{t}\|H_f(x+th)-H_f(x)\| = o(\|h\|^2)로 추정된다.

1차 항 fh\nabla f^\top h는 경사하강법의 기반이다. 학습률 η\etah=ηfh = -\eta\nabla f를 대입하면:

f(xηf)f(x)η(1ηL2)f2f(x - \eta\nabla f) \leq f(x) - \eta\left(1 - \frac{\eta L}{2}\right)\|\nabla f\|^2

HfH_f의 최대 고유값이 LL 이하일 때 성립한다. η<2/L\eta < 2/L이면 손실이 단조 감소한다. 이것이 학습률 상한의 수학적 근거다.

헤시안의 스펙트럼이 결정하는 것들

헤시안의 고유값 부호는 정류점의 유형을 완전히 결정한다.

정리 2 · 2차 충분조건

f(a)=0\nabla f(a) = 0인 정류점에서, Spectral Theorem에 의해 H=QΛQH = Q\Lambda Q^\top. 최솟값 고유값 μ=miniλi\mu = \min_i \lambda_i에 대해:

hHh=h2iλivi2μh2h^\top H h = \|h\|^2 \sum_i \lambda_i v_i^2 \geq \mu\|h\|^2

모든 λi>0\lambda_i > 0이면 (PD) f(a+h)f(a)+μ2h2+o(h2)>f(a)f(a+h) \geq f(a) + \frac{\mu}{2}\|h\|^2 + o(\|h\|^2) > f(a)이므로 aa는 엄격한 국소 최솟값이다. 고유값이 양/음 혼재이면 (부정부호) aa는 안장점이다.

딥러닝에서 이 결과가 갖는 함의는 결정적이다. nn차원 대칭 랜덤 행렬(GOE)에서 모든 고유값이 양수일 확률은 eΘ(n2)e^{-\Theta(n^2)}으로 감소한다(Wigner 반원 법칙). 즉 고차원 손실 함수에서 진정한 국소 최솟값은 지수적으로 드물고, 안장점이 지배적이다.

Dauphin et al. (2014)의 핵심 주장이 여기서 나온다: 딥러닝의 실제 문제는 국소 최솟값에 갇히는 것이 아니라 안장점 근방에서의 느린 수렴이다.

볼록성 — “정류점 = 전역 최솟값”이 보장되는 조건

f 볼록    Hf(x) PSD for all x    f(y)f(x)+f(x)(yx)f \text{ 볼록} \iff H_f(x) \text{ PSD for all } x \iff f(y) \geq f(x) + \nabla f(x)^\top(y-x)

이 동치 관계는 중요하다. Logistic Regression의 Cross-Entropy Loss는 헤시안이 Xdiag(σi(1σi))XX^\top \text{diag}(\sigma_i(1-\sigma_i)) X로 PSD이므로 볼록이다. 정류점을 찾으면 그것이 전역 최솟값이다. 반면 ReLU 네트워크는 비볼록이다. GD는 안장점이나 국소 최솟값에 멈출 수 있다.

SGD의 비볼록 이점

SGD의 gradient 잡음은 볼록 문제에서는 불필요한 노이즈지만, 비볼록 문제에서는 안장점 탈출의 동력이 된다. 안장점에서 헤시안의 음의 고유값 방향으로 잡음이 축적되면 탈출이 가능하다(Jin et al. 2017). 작은 배치가 flat minima로 수렴하는 경향도 이 메커니즘과 연결된다.

조건수 — 수렴 속도의 지배자

헤시안 조건수 κ=λmax/λmin\kappa = \lambda_{\max}/\lambda_{\min}이 등위면의 형태를 결정한다.

f(x)=12xHx의 등위면 반축 비=κ(H)f(x) = \tfrac{1}{2}x^\top H x \text{의 등위면 반축 비} = \sqrt{\kappa(H)}

κ\kappa가 크면 등위면은 극단적으로 납작한 타원이 되고, GD는 좁은 골짜기를 지그재그로 오간다. 강볼록(μ\mu-SC)이고 LL-smooth인 함수에서 GD의 수렴 계수는 ρ=(κ1κ+1)2\rho = \left(\frac{\kappa-1}{\kappa+1}\right)^2이다.

조건수 κ\kappa수렴 계수 ρ\rho의미
101스텝 수렴
10~0.67느림
100~0.96매우 느림

뉴턴 방법은 이 문제를 근본적으로 해결한다. xxH1fx \leftarrow x - H^{-1}\nabla f는 입력 공간을 HH로 재스케일하여 조건수를 1로 만드는 Preconditioning과 동치다. 2차 함수에서는 단 1번 스텝에 수렴한다.

정리

  • 다변수 테일러 전개의 2차 항이 경사하강법의 학습률 상한 η<2/L\eta < 2/L을 결정한다.
  • 헤시안 고유값의 부호가 정류점의 유형(최솟값/최댓값/안장점)을 완전히 결정한다.
  • 고차원에서 안장점이 지배적이다. 딥러닝의 실제 문제는 국소 최솟값이 아니라 안장점 근방의 느린 수렴이다.
  • 조건수 κ=λmax/λmin\kappa = \lambda_{\max}/\lambda_{\min}이 GD 수렴 속도를 결정한다. 뉴턴 방법과 Preconditioning(Adam, BN)은 모두 κ\kappa를 줄이는 전략이다.

손실 함수의 기하학을 읽는 것은 결국 헤시안을 읽는 것이다.