<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"><channel><title>IQ Lab — deep-dive.engineering(ai)</title><description>백엔드 시스템과 AI의 수학적 기반을 파고드는 마스터의 딥다이브 로그. 표면적인 사용법이 아닌, 본질을 증명하는 기록.</description><link>https://iq-proof.github.io</link><language>ko-KR</language><item><title>Spring AOP는 왜 프록시 기반일까</title><link>https://iq-proof.github.io/posts/spring-aop-proxy-mechanics</link><guid isPermaLink="true">https://iq-proof.github.io/posts/spring-aop-proxy-mechanics</guid><description>Self-invocation 문제의 근본 원인부터 AspectJ Weaving과의 트레이드오프까지, 프록시 AOP의 설계 결정을 추적한다.</description><pubDate>Fri, 17 Apr 2026 00:00:00 GMT</pubDate><category>Dev</category><category>spring</category><category>aop</category><category>proxy</category><category>jvm</category><author>마스터</author></item><item><title>Attention의 √d 스케일링은 어디서 왔나</title><link>https://iq-proof.github.io/posts/attention-sqrt-d-scaling</link><guid isPermaLink="true">https://iq-proof.github.io/posts/attention-sqrt-d-scaling</guid><description>Scaled dot-product attention의 분모 √d_k가 왜 필요한가. Softmax 포화를 막기 위한 분산 보존 유도와 Linear Attention의 가정까지.</description><pubDate>Wed, 15 Apr 2026 00:00:00 GMT</pubDate><category>AI</category><category>transformer</category><category>attention</category><category>softmax</category><category>variance</category><author>마스터</author></item></channel></rss>