무한차원은 왜 다른가 — 함수해석학이 AI에 던지는 질문
거리공간의 완비성부터 Riesz 보조정리까지, 유한차원의 직관이 무한차원에서 무너지는 지점과 그 귀결로서의 정규화를 추적한다.
- 01 무한차원은 왜 다른가 — 함수해석학이 AI에 던지는 질문
- 02 Hilbert 공간은 왜 AI 수학의 기반인가
- 03 함수해석학은 왜 딥러닝의 언어인가
- 04 컴팩트 연산자와 스펙트럼 — 무한차원 대각화의 철학
- 05 RKHS는 왜 머신러닝의 이론적 토대인가
- 06 PINN은 왜 작동하는가 — 함수해석학이 만든 근거
- 07 신경망이 함수공간에서 조밀한 이유 — Universal Approximation부터 PINN까지
신경망 훈련은 고차원 공간에서의 반복 알고리즘이다. 유한차원에서는 Cauchy 수열이 수렴하고, 닫힌 유계 집합은 컴팩트하며, 연속함수는 최솟값을 달성한다. 그런데 파라미터 수를 무한으로 보내면 — 또는 함수공간 자체를 탐색 공간으로 설정하면 — 이 “당연한” 사실들이 전부 무너진다. 왜 그런가?
완비성 — “극한이 같은 공간 안에 있다”는 보장
거리공간 에서 Cauchy 수열이란 항들이 서로 임의로 가까워지는 수열이다.
수렴은 극한점의 존재를 전제하지만, Cauchy 수열은 그렇지 않다. 유리수 에서 를 Newton 방법으로 근사하는 수열은 완벽한 Cauchy 수열이지만, 극한 이다. 이것이 가 완비가 아닌 이유다.
완비 거리공간은 “모든 Cauchy 수열이 같은 공간 안에서 수렴”한다는 추가 보장을 준다. 경사하강법의 반복
이 Cauchy 수열을 이룬다면, 완비 공간에서는 극한이 존재함을 보장할 수 있다. 함수공간이 완비가 아니라면, 손실이 단조 감소해도 수렴점이 공간 밖에 있을 수 있다.
가 완비 거리공간이고 가 수축 사상(: )이면, 는 유일한 고정점 를 가지며 임의의 에서 시작한 반복 수열 은 로 수렴한다.
반복 수열의 항 간 거리를 귀납적으로 추정하면 이고, 에 대해
이므로 수열은 Cauchy다. 의 완비성으로 극한 가 존재하고, 의 연속성(수축 연속)에 의해 . 유일성은 두 고정점 에 대해 이고 이므로 .
노름공간 — 거리보다 강한 구조
거리는 두 점 사이의 간격만 잰다. 노름은 거기에 벡터공간 구조를 얹는다.
노름이 유도하는 거리 는 이동불변이다. 완비 노름공간을 Banach 공간이라 부른다.
에서 노름은 모두 동치다 — 어느 노름으로 재든 같은 수열이 수렴한다. 이 동치성은 유한차원의 특권이다. 함수공간 에서 노름과 노름은 동치가 아니다. 는 최대 편차를, 는 평균 제곱을 재기 때문이다.
신경망 정규화의 기하학적 차이는 여기서 나온다. 정규화의 등고선은 마름모 모양으로 꼭짓점에서 희소해(sparse solution)를 촉진하고, 정규화의 등고선은 원형으로 균등 감쇠를 유도한다.
공간과 Riesz-Fischer — 함수도 Banach 공간을 이룬다
함수들의 집합을 노름공간으로 만들려면 “거의 모든 곳(a.e.)“에서 같은 함수를 동일시해야 한다. 그 위에서
로 정의된 공간은 세 가지 핵심 사실로 요약된다.
Hölder 부등식 ():
Minkowski 부등식:
Riesz-Fischer 정리: 는 완비다 — 모든 Cauchy 수열이 안에서 수렴한다.
MSE 손실 은 노름이고, MAE 손실 은 노름이다. 이들이 완비 공간의 노름이라는 사실이 최적화 수렴 분석의 토대를 이룬다.
무한차원에서 무너지는 것 — Riesz 보조정리
유한차원()에서 Heine-Borel 정리는 “닫혀있고 유계이면 컴팩트”라고 보장한다. 컴팩트성은 연속함수의 최솟값 달성을 보장하는 성질이다.
무한차원 Banach 공간에서는 이것이 거짓이다.
가 무한차원 Banach 공간이고 가 닫힌 진부분공간이면, 임의의 에 대해 이고 인 가 존재한다.
를 잡고 (가 닫혀있으므로). 에 대해 인 를 고른다. 로 정의하면 이고, 임의의 에 대해
이 보조정리를 반복 적용하면 단위구 위에 서로 이상 떨어진 수열 을 무한히 구성할 수 있다. 이 수열은 수렴하는 부분수열을 가질 수 없으므로, 무한차원 Banach 공간의 단위구는 컴팩트하지 않다.
무한차원 함수공간에서 손실함수 는 하한이 존재해도 최솟값을 달성하지 못할 수 있다. 이것이 딥러닝에서 정규화가 단순한 과적합 방지 이상의 역할을 하는 이유다.
정규화 — 유한차원성의 인공적 복구
정규화를 붙인 문제
는 레벨 집합 가 유계이므로, 완비 공간에서 최솟값의 존재를 보장하는 방향으로 작용한다. Dropout은 랜덤하게 뉴런을 끔으로써 함수공간을 실질적으로 유한차원화하고, 배치 정규화는 활성값을 제한된 범위로 가둔다.
이 기법들이 공통적으로 하는 일은 하나다 — 무한차원 탐색 공간에 컴팩트성과 유사한 제약을 부과해 Heine-Borel이 다시 작동하도록 만드는 것이다.
Weierstrass 근사 정리(“다항식은 에서 조밀하다”)가 신경망의 Universal Approximation 정리의 기초가 되듯, 함수해석학의 결과들은 딥러닝의 작동 원리를 설명하는 언어를 제공한다.
정리
- Cauchy 수열의 수렴을 보장하는 완비성이 없으면 반복 알고리즘의 극한이 공간 밖으로 탈출할 수 있다.
- 공간은 Riesz-Fischer 정리에 의해 완비 Banach 공간이며, 신경망 손실함수 대부분은 이 구조 위에 정의된다.
- 유한차원에서 자명한 **컴팩트성(Heine-Borel)**은 무한차원에서 Riesz 보조정리에 의해 깨진다 — 단위구가 컴팩트하지 않다.
- 정규화·Dropout·배치 정규화는 모두 무한차원 탐색 공간에 유한차원성을 인공적으로 복구하는 기법이다.
다음 글에서는 Banach 공간에 내적 구조를 추가한 Hilbert 공간을 다루고, 정사영(projection)과 Riesz 표현 정리가 어떻게 kernel 방법과 attention 메커니즘의 수학적 토대가 되는지 추적한다.