Transformer는 왜 작동하는가 — 설계 결정들의 공통 뿌리
√d_k 스케일링부터 Residual Connection까지, Transformer의 핵심 설계 결정들이 하나의 원칙 — '신호가 사라지지 않게 하라' — 에서 비롯됨을 추적한다.
- 01 신경망 이론의 네 가지 뿌리 — 퍼셉트론부터 활성화 함수까지
- 02 신경망은 왜 어떤 함수든 근사할 수 있는가
- 03 역전파는 왜 단 한 번의 backward pass로 충분한가
- 04 신경망 초기화는 왜 이렇게 복잡해졌는가
- 05 CNN의 설계 철학 — 왜 Convolution인가
- 06 RNN은 왜 긴 기억을 갖지 못하는가
- 07 Transformer는 왜 작동하는가 — 설계 결정들의 공통 뿌리
Transformer의 설계를 들여다보면 겉보기에 무관한 결정들이 반복된다. 내적을 로 나누고, 위치 인코딩을 별도로 주입하고, 모든 서브레이어마다 잔차 연결을 단다. 왜 하필 이것들인가? 이 결정들은 각각 독립적인 공학적 선택처럼 보이지만, 실제로는 하나의 공통 원칙에서 나온다 — 신호가 깊이 방향으로 사라지지 않게 하라.
문제의 시작: 신호 분산의 폭발
Self-Attention의 핵심 수식은 다음과 같다.
왜 로 나누는가? 각 원소 이라 가정하면, 내적 의 분산은 다음과 같다.
중심극한정리에 의해 이 합은 근사적으로 를 따른다. 이면 표준편차가 8이고, 이면 표준편차가 약 22다. Softmax에 큰 값이 들어오면 특정 위치에 거의 모든 가중치가 쏠리는 포화(saturation) 상태가 된다. 포화된 Softmax의 그래디언트는 거의 0이다.
일 때, for or .
에서, 이 극단적으로 크면 이 된다. 따라서 또는 인 모든 편미분이 0에 수렴한다.
로 나누면 분산이 로 정규화된다. Softmax 입력이 스케일로 유지되고, 엔트로피가 높은 “부드러운” 분포가 만들어져 그래디언트가 전달된다. 이 한 줄의 나눗셈이 대규모 모델 훈련의 기반이다.
순서라는 정보를 어텐션에 주입하기
Self-Attention은 순열 동변(permutation-equivariant) 이다. 입력 순열행렬 에 대해 가 성립하기 때문에, 순서를 바꿔도 어텐션 가중치 패턴은 그대로 바뀐다. “개가 고양이를 쫓았다”와 “고양이가 개를 쫓았다”를 구분할 수 없다.
위치 인코딩은 이 대칭성을 깬다. Sinusoidal 방식(Vaswani et al., 2017)은 각 위치 , 차원 에 대해
를 입력에 더한다. 삼각함수 덧셈 공식에 의해 위치 와 사이의 관계는 고정된 회전 행렬로 표현되며, 이는 네트워크가 상대 위치를 선형 변환으로 학습할 수 있음을 의미한다.
최근 대규모 모델들은 RoPE(Su et al., 2021)나 ALiBi(Press et al., 2022)를 선호한다. RoPE는 쿼리와 키에 위치 의존 회전을 직접 적용해 내적 자체에 상대 위치가 인코딩되도록 만들고, ALiBi는 어텐션 점수에 거리 기반 선형 바이어스를 더해 훈련 길이를 초과하는 시퀀스에서도 잘 작동한다.
Sinusoidal: 별도 파라미터 없음, 안정적. Learned: 유연하지만 훈련 길이 외 외삽 불가. RoPE: 외삽 우수, 구현 복잡. ALiBi: 극단적으로 단순, 의미론적 방향성 부재. 시퀀스 길이와 외삽 요구사항이 선택 기준이다.
표현력을 높이는 방법: 헤드를 여러 개
단일 Self-Attention은 어텐션 행렬 하나로 모든 관계를 표현해야 한다. Multi-Head Attention은 이 문제를 병렬 부분공간으로 분산한다.
파라미터 수는 단일 헤드와 동일하다(). 각 헤드의 로 줄어들기 때문이다. 그러나 헤드마다 독립적인 를 학습하므로, 한 헤드는 문법 관계를, 다른 헤드는 의미 관계를, 또 다른 헤드는 위치 관계를 포착할 수 있다. Michel et al.(2019)의 헤드 프루닝 실험은 훈련 수렴 후 일부 헤드를 제거해도 성능 손실이 작다는 것을 보였지만, 훈련 과정 자체에서는 헤드 다양성이 필수적이다.
깊이를 가능하게 하는 구조: Residual Connection
2015년 이전까지 50층 이상의 네트워크는 훈련이 사실상 불가능했다. 역전파 시 그래디언트가 층을 거듭할수록 곱해지기 때문이다.
각 항의 최대 고유값이 이면 그래디언트는 로 지수 감쇠한다. He et al.(2015)의 해결책은 단순하다.
역전파 시 이 된다. 항이 그래디언트를 직접 전달하는 **“그래디언트 고속도로”**를 만든다. 의 가중치가 아무리 작아도 그래디언트는 소실되지 않는다. Transformer의 모든 서브레이어(Self-Attention, FFN)가 잔차 연결을 사용하는 이유가 여기 있다.
Transformer가 범용 근사자인 이유
Yun et al.(2020)은 적절한 깊이와 너비를 가진 Transformer가 compact set 위의 모든 연속 시퀀스-투-시퀀스 함수를 균일하게 근사할 수 있음을 증명했다. 증명의 핵심은 세 가지다: Attention이 “소프트 선택”으로 임의의 선형 조합을 만들고, FFN이 위치별 비선형 변환을 적용하며, 층을 쌓는 것이 복합 함수를 만든다. 단, 포지셔널 인코딩이 없으면 순열 동변 함수만 표현 가능하다 — 순서가 중요한 언어 문제에서는 사실상 쓸모가 없다.
이 정리의 실전 함의는 다소 냉정하다. “충분히 크면 된다”는 이론적 보장은 있지만, 필요한 파라미터 수와 샘플 복잡도는 보장하지 않는다. 성능이 부족할 때 원인은 모델 구조가 아니라 데이터, 훈련, 하이퍼파라미터일 가능성이 높다.
정리
- 정규화는 Softmax 포화를 막아 그래디언트 소실을 방지한다. 분산을 에서 1로 돌리는 것이 전부다.
- 위치 인코딩은 순열 동변인 Self-Attention에 순서 정보를 주입한다. RoPE와 ALiBi는 외삽 능력이 필요한 대규모 모델의 선택지다.
- Multi-Head는 같은 파라미터로 다양한 관계 패턴을 병렬 학습한다. 파라미터 효율성과 표현력의 교환이다.
- Residual Connection은 그래디언트 고속도로를 만들어 100층 이상 훈련을 가능하게 한다. Transformer의 모든 서브레이어가 이 구조를 따른다.
이 네 가지가 하나의 철학을 공유한다는 것을 알면, 새로운 아키텍처 변형을 보았을 때 “이 결정은 어떤 신호를 보존하려는 것인가”라는 질문을 먼저 던질 수 있다.