손실 함수의 기하학 — 헤시안이 최적화를 지배하는 방식
다변수 테일러 전개의 2차 항부터 조건수와 수렴 속도의 관계까지, 경사하강법과 뉴턴 방법의 이론적 기반을 추적한다.
- 01 딥러닝의 수학은 왜 극한에서 시작하는가
- 02 미분가능성의 계층 — 편미분에서 역전파까지
- 03 손실 함수의 기하학 — 헤시안이 최적화를 지배하는 방식
- 04 경사하강법의 수렴은 왜 그 속도인가
- 05 역전파는 어떻게 수십억 파라미터의 기울기를 한 번에 계산하는가
- 06 제약 최적화는 왜 AI의 핵심 언어인가
- 07 딥러닝 미분의 통일된 언어 — 야코비안에서 암묵적 미분까지
경사하강법은 왜 어떤 문제에서는 수십 번 만에 수렴하고 어떤 문제에서는 수천 번이 지나도 제자리인가? 딥러닝 학습에서 안장점은 정말 문제인가, 아니면 국소 최솟값이 문제인가? 이 질문들의 답은 모두 같은 곳에서 나온다 — 손실 함수의 2차 테일러 전개와 헤시안의 스펙트럼.
2차 테일러 전개 — 모든 최적화 이론의 출발점
함수 에 대해 점 에서 방향 로의 전개는 다음과 같다.
이 수식은 단순한 근사가 아니다. 경사하강법의 학습률 상한, 뉴턴 방법의 업데이트 규칙, L-smooth 조건의 수렴 보장이 전부 이 한 줄에서 유도된다.
이면, 로 놓으면 , 이다. 단변수 테일러를 에서 까지 적용하면 위 전개식이 엄밀히 유도된다. 나머지 항은 의 연속성에서 로 추정된다.
1차 항 는 경사하강법의 기반이다. 학습률 로 를 대입하면:
의 최대 고유값이 이하일 때 성립한다. 이면 손실이 단조 감소한다. 이것이 학습률 상한의 수학적 근거다.
헤시안의 스펙트럼이 결정하는 것들
헤시안의 고유값 부호는 정류점의 유형을 완전히 결정한다.
인 정류점에서, Spectral Theorem에 의해 . 최솟값 고유값 에 대해:
모든 이면 (PD) 이므로 는 엄격한 국소 최솟값이다. 고유값이 양/음 혼재이면 (부정부호) 는 안장점이다.
딥러닝에서 이 결과가 갖는 함의는 결정적이다. 차원 대칭 랜덤 행렬(GOE)에서 모든 고유값이 양수일 확률은 으로 감소한다(Wigner 반원 법칙). 즉 고차원 손실 함수에서 진정한 국소 최솟값은 지수적으로 드물고, 안장점이 지배적이다.
Dauphin et al. (2014)의 핵심 주장이 여기서 나온다: 딥러닝의 실제 문제는 국소 최솟값에 갇히는 것이 아니라 안장점 근방에서의 느린 수렴이다.
볼록성 — “정류점 = 전역 최솟값”이 보장되는 조건
이 동치 관계는 중요하다. Logistic Regression의 Cross-Entropy Loss는 헤시안이 로 PSD이므로 볼록이다. 정류점을 찾으면 그것이 전역 최솟값이다. 반면 ReLU 네트워크는 비볼록이다. GD는 안장점이나 국소 최솟값에 멈출 수 있다.
SGD의 gradient 잡음은 볼록 문제에서는 불필요한 노이즈지만, 비볼록 문제에서는 안장점 탈출의 동력이 된다. 안장점에서 헤시안의 음의 고유값 방향으로 잡음이 축적되면 탈출이 가능하다(Jin et al. 2017). 작은 배치가 flat minima로 수렴하는 경향도 이 메커니즘과 연결된다.
조건수 — 수렴 속도의 지배자
헤시안 조건수 이 등위면의 형태를 결정한다.
가 크면 등위면은 극단적으로 납작한 타원이 되고, GD는 좁은 골짜기를 지그재그로 오간다. 강볼록(-SC)이고 -smooth인 함수에서 GD의 수렴 계수는 이다.
| 조건수 | 수렴 계수 | 의미 |
|---|---|---|
| 1 | 0 | 1스텝 수렴 |
| 10 | ~0.67 | 느림 |
| 100 | ~0.96 | 매우 느림 |
뉴턴 방법은 이 문제를 근본적으로 해결한다. 는 입력 공간을 로 재스케일하여 조건수를 1로 만드는 Preconditioning과 동치다. 2차 함수에서는 단 1번 스텝에 수렴한다.
정리
- 다변수 테일러 전개의 2차 항이 경사하강법의 학습률 상한 을 결정한다.
- 헤시안 고유값의 부호가 정류점의 유형(최솟값/최댓값/안장점)을 완전히 결정한다.
- 고차원에서 안장점이 지배적이다. 딥러닝의 실제 문제는 국소 최솟값이 아니라 안장점 근방의 느린 수렴이다.
- 조건수 이 GD 수렴 속도를 결정한다. 뉴턴 방법과 Preconditioning(Adam, BN)은 모두 를 줄이는 전략이다.
손실 함수의 기하학을 읽는 것은 결국 헤시안을 읽는 것이다.