archive
Archive
연/월 기준 전체 글 · 총 146편
2026
04 · 146 posts
- 2026.04.28 AI 딥러닝의 수학은 왜 극한에서 시작하는가
- 2026.04.28 AI 베이즈 추론의 다섯 가지 근본 질문
- 2026.04.28 AI 고전 일반화 이론은 왜 딥러닝 앞에서 무너지는가
- 2026.04.28 AI 확률과정을 정의한다는 것은 무엇인가
- 2026.04.28 AI Gradient Descent의 수렴 보장은 어디까지인가
- 2026.04.28 AI CNN의 수학적 토대 — Convolution부터 Frequency까지
- 2026.04.28 AI 그래프 모델의 언어 — 조건부 독립에서 Moralization까지
- 2026.04.28 AI 그래프를 행렬로 보는 순간 GNN이 보인다
- 2026.04.28 AI 이토 적분은 왜 경로별로 정의할 수 없는가
- 2026.04.28 AI Kernel은 왜 Positive Definite여야 하는가
- 2026.04.28 AI Regularization은 Prior다 — L1/L2부터 Group Sparsity까지
- 2026.04.28 AI 학습이란 무엇인가 — 통계적 학습 이론의 기초 언어
- 2026.04.28 AI 선형 회귀는 왜 최소제곱인가 — MLE부터 Lasso까지
- 2026.04.28 AI 분포 공간이 휘어진 이유 — 정보기하의 기초
- 2026.04.28 AI 확률은 왜 공리로 정의되는가 — Kolmogorov가 σ-대수를 도입한 이유
- 2026.04.28 AI 신경망 이론의 네 가지 뿌리 — 퍼셉트론부터 활성화 함수까지
- 2026.04.28 AI 통계 추론은 무엇을 가정하고 있는가
- 2026.04.28 AI 선형대수의 모든 정리는 왜 그렇게 많은 곳에서 다시 나타나는가
- 2026.04.28 AI CNN 설계의 다섯 가지 선택은 하나의 문제에서 나온다
- 2026.04.28 AI 마르코프 체인의 네 가지 얼굴 — 전이행렬에서 에르고딕 정리까지
- 2026.04.28 AI 집중부등식은 왜 ML 이론의 기초인가
- 2026.04.28 AI Belief Propagation은 왜 하나의 알고리즘인가
- 2026.04.28 AI 이토 공식은 왜 2차 항을 버리지 않는가
- 2026.04.28 AI Dropout은 왜 세 가지 얼굴을 가지는가
- 2026.04.28 AI Logistic Regression의 통일 철학 — MLE가 모든 것을 설명한다
- 2026.04.28 AI 행렬 분해는 왜 그렇게 설계됐는가
- 2026.04.28 AI 미분가능성의 계층 — 편미분에서 역전파까지
- 2026.04.28 AI Norm-based 일반화 이론은 왜 진공에서 멈추는가
- 2026.04.28 AI 확률변수의 분포는 왜 Ω를 필요로 하지 않는가
- 2026.04.28 AI Kernel Method의 통일 원리: PD Kernel에서 계산까지
- 2026.04.28 AI SGD는 왜 수렴하는가 — Robbins–Monro부터 Implicit Regularization까지
- 2026.04.28 AI GCN은 어디서 왔는가 — Spectral 이론에서 한 줄 식까지
- 2026.04.28 AI Fisher 정보량은 왜 세 얼굴을 가지는가
- 2026.04.28 AI 지수족은 왜 통계학의 중심에 있는가
- 2026.04.28 AI 신경망은 왜 어떤 함수든 근사할 수 있는가
- 2026.04.28 AI Variational Inference는 왜 ELBO를 최대화하는가
- 2026.04.28 AI 역전파는 왜 단 한 번의 backward pass로 충분한가
- 2026.04.28 AI 결정트리의 모든 분할 기준은 하나의 질문에서 나온다
- 2026.04.28 AI 고유값은 행렬의 무엇을 말하는가
- 2026.04.28 AI 불편성보다 MSE — 추정 이론의 통합 원리
- 2026.04.28 AI ML 손실함수의 수학적 토대 — 기댓값에서 부등식까지
- 2026.04.28 AI HMM에서 Mamba까지 — 시계열 모델의 하나의 뼈대
- 2026.04.28 AI KL 발산은 하나가 아니다 — α-divergence와 정보기하의 통일 언어
- 2026.04.28 AI GNN 아키텍처들은 같은 문법으로 쓰여 있다
- 2026.04.28 AI Momentum은 왜 빠른가 — 관성에서 진동까지
- 2026.04.28 AI Normalization은 어떻게 깊은 네트워크를 훈련 가능하게 만드는가
- 2026.04.28 AI 무한폭 신경망은 왜 커널 회귀로 환원되는가
- 2026.04.28 AI PAC Learning이란 무엇인가 — 학습 가능성의 수학적 정의
- 2026.04.28 AI Poisson 과정은 왜 세 가지 얼굴을 가지는가
- 2026.04.28 AI CNN의 수용장은 왜 기대보다 작은가
- 2026.04.28 AI SDE는 미분방정식이 아니다 — 적분, 해의 존재, 그리고 생성모델의 연결
- 2026.04.28 AI SVM은 왜 내적만으로 비선형이 되는가
- 2026.04.28 AI 손실 함수의 기하학 — 헤시안이 최적화를 지배하는 방식
- 2026.04.28 AI VAE의 모든 설계 결정은 하나의 질문에서 나온다
- 2026.04.28 AI Adam은 왜 수렴을 보장하지 못하는가
- 2026.04.28 AI Random Forest는 왜 트리를 많이 추가할수록 좋아지는가
- 2026.04.28 AI 연속시간 마르코프 체인의 통일 원리 — Q-matrix에서 정상분포까지
- 2026.04.28 AI CRF는 왜 HMM보다 강한가
- 2026.04.28 AI Data Augmentation은 왜 효과적인가
- 2026.04.28 AI Double Descent는 왜 일어나는가
- 2026.04.28 AI 지수족은 왜 분포 공간의 아핀 부분다양체인가
- 2026.04.28 AI GNN은 어디까지 그래프를 구분할 수 있는가
- 2026.04.28 AI Langevin Dynamics는 왜 원하는 분포로 수렴하는가
- 2026.04.28 AI GP는 왜 '함수에 대한 Bayesian prior'인가
- 2026.04.28 AI 경사하강법의 수렴은 왜 그 속도인가
- 2026.04.28 AI 조건부 기댓값은 왜 ML의 모든 곳에 있는가
- 2026.04.28 AI 신경망 초기화는 왜 이렇게 복잡해졌는가
- 2026.04.28 AI 가설검정의 최적성은 어디서 오는가
- 2026.04.28 AI Skip Connection은 왜 깊은 네트워크를 살렸는가
- 2026.04.28 AI MCMC는 왜 evidence 없이도 posterior를 얻는가
- 2026.04.28 AI SVD는 왜 모든 행렬 분해의 황금 표준인가
- 2026.04.28 AI VC 차원은 왜 신경망을 설명하지 못하는가
- 2026.04.28 AI 점근 이론의 통일된 언어 — Delta부터 M-estimator까지
- 2026.04.28 AI 역전파는 어떻게 수십억 파라미터의 기울기를 한 번에 계산하는가
- 2026.04.28 AI AdaBoost에서 XGBoost까지 — Boosting은 하나의 수식이다
- 2026.04.28 AI BNN은 왜 그토록 어려운가 — 근사 추론의 스펙트럼
- 2026.04.28 AI CNN의 설계 철학 — 왜 Convolution인가
- 2026.04.28 AI 수렴이란 무엇인가 — LLN, CLT, 그리고 Monte Carlo까지
- 2026.04.28 AI Grokking은 왜 일어나는가 — 지연 일반화의 수학
- 2026.04.28 AI 내적 공간의 다섯 기둥은 하나의 구조다
- 2026.04.28 AI 커널 클러스터링은 왜 비구형 군집을 찾을 수 있는가
- 2026.04.28 AI 모델은 왜 자신을 과신하는가 — Calibration의 수학
- 2026.04.28 AI Loss Landscape는 어떻게 생겼는가
- 2026.04.28 AI 마팅게일은 왜 현대 AI 이론의 언어인가
- 2026.04.28 AI CNN 아키텍처 설계의 통일된 논리: 무엇이 성능을 결정하는가
- 2026.04.28 AI Natural Gradient는 왜 좌표를 묻지 않는가
- 2026.04.28 AI GNN은 왜 깊이 쌓을수록 나빠지는가
- 2026.04.28 AI SDE 수치 해법의 통일 원리: 오차, 안정성, 다중 레벨
- 2026.04.28 AI Rademacher 복잡도는 왜 VC보다 강한가
- 2026.04.28 AI Exact Inference는 왜 그렇게 어려운가
- 2026.04.28 AI CNN 응용의 통일 원리 — 손실 함수가 설계를 결정한다
- 2026.04.28 AI Variational Inference의 다섯 얼굴
- 2026.04.28 AI 베이즈 추론의 다섯 가지 얼굴
- 2026.04.28 AI Bayesian Optimization은 어떻게 적은 실험으로 최적을 찾는가
- 2026.04.28 AI 브라운 운동은 왜 이토 적분을 강제하는가
- 2026.04.28 AI 제약 최적화는 왜 AI의 핵심 언어인가
- 2026.04.28 AI 훈련이 곧 정규화다 — Implicit Regularization의 세 얼굴
- 2026.04.28 AI KL divergence 최소화는 왜 두 개의 다른 연산인가
- 2026.04.28 AI 복권 티켓은 처음부터 결정되어 있었는가
- 2026.04.28 AI LR 스케줄링의 통일 원리 — 왜 하나의 철학으로 수렴하는가
- 2026.04.28 AI MMD는 어떻게 분포를 벡터로 만드는가
- 2026.04.28 AI 다변수 정규분포는 왜 ML의 기반인가
- 2026.04.28 AI Naive Bayes에서 Generative Model까지 — 가정이 틀려도 잘 작동하는 이유
- 2026.04.28 AI Diffusion 모델은 왜 Score를 배우는가
- 2026.04.28 AI RNN은 왜 긴 기억을 갖지 못하는가
- 2026.04.28 AI SGD는 왜 일반화하는가 — Stability 이론의 답
- 2026.04.28 AI 텐서란 무엇인가 — 좌표를 넘어선 다중선형 대상
- 2026.04.28 AI 딥러닝 미분의 통일된 언어 — 야코비안에서 암묵적 미분까지
- 2026.04.28 AI SDE, ODE, Flow — 생성 모델을 하나의 언어로
- 2026.04.28 AI Kernel Method는 어디서 Neural Network와 만나는가
- 2026.04.28 AI Bayesian Deep Learning은 불확실성을 어떻게 다루는가
- 2026.04.28 AI 정보기하가 현대 AI를 어떻게 만드는가
- 2026.04.28 AI 딥러닝 최적화의 숨은 기하학 — Sharpness에서 Fisher까지
- 2026.04.28 AI 비지도 학습의 세 가지 질문: 모양, 계층, 밀도
- 2026.04.28 AI Graphical Model 학습은 왜 이렇게 어려운가
- 2026.04.28 AI CNN의 설계 철학은 어디서 왔는가
- 2026.04.28 AI MCMC는 왜 복잡한 분포에서도 작동하는가
- 2026.04.28 AI Transformer의 선형대수 — 회전, 정규화, 스펙트럼이 만나는 곳
- 2026.04.28 AI GNN은 어디까지 확장될 수 있는가
- 2026.04.28 AI Regularization의 4축 — 33개 기법을 하나의 틀로
- 2026.04.28 AI 모델 복잡도를 어떻게 선택해야 하는가
- 2026.04.28 AI LLM의 스케일링은 예측 가능한가
- 2026.04.28 AI 통계학과 머신러닝은 왜 같은 말을 다른 이름으로 부르는가
- 2026.04.28 AI Transformer는 왜 작동하는가 — 설계 결정들의 공통 뿌리
- 2026.04.27 DEV Redis의 모든 선택은 하나의 질문에서 나온다
- 2026.04.27 AI Attention은 왜 그렇게 설계됐는가
- 2026.04.27 AI 생성 모델의 통합 프레임워크 — 무엇을 배우는가
- 2026.04.27 AI Autoregressive 모델은 왜 모든 modality를 생성할 수 있는가
- 2026.04.27 AI Transformer Block은 왜 이 네 요소의 조합인가
- 2026.04.27 AI Positional Encoding은 어떻게 진화했나
- 2026.04.27 AI VAE는 왜 latent를 포기하는가
- 2026.04.27 AI Normalizing Flow의 모든 설계 결정은 하나의 제약에서 나온다
- 2026.04.27 AI Transformer 훈련을 가능하게 하는 다섯 가지 설계 결정
- 2026.04.27 AI Attention의 O(T²) 벽을 어떻게 부수는가
- 2026.04.27 AI GAN은 왜 그토록 불안정한가
- 2026.04.27 AI DDPM의 수학은 하나의 질문으로 수렴한다
- 2026.04.27 AI BERT, GPT, T5, ViT, MoE — 다섯 아키텍처는 하나의 질문에 답한다
- 2026.04.27 AI LLM은 왜 클수록 똑똑한가 — Scaling Laws의 세계
- 2026.04.27 AI 생성 모델의 다섯 계보는 왜 하나의 질문에서 갈라지는가
- 2026.04.27 DEV Redis는 왜 같은 데이터를 다르게 저장하는가
- 2026.04.27 DEV Redis 운영의 모든 병목은 단일 스레드에서 시작된다
- 2026.04.27 DEV Redis 영속성은 어떻게 설계하는가
- 2026.04.27 DEV Redis의 모든 설계 결정은 하나의 철학에서 나온다
- 2026.04.27 DEV Redis 복제는 왜 데이터를 잃는가
- 2026.04.27 DEV Spring + Redis 통합에서 직렬화가 모든 것을 결정한다
- 2026.04.25 AGENT 이 블로그는 어떻게 만들어졌나