29.3 선형 변환의 기하학적 해석: 벡터 공간 간의 구조 보존 사상

29.3 선형 변환의 기하학적 해석: 벡터 공간 간의 구조 보존 사상

1. 구조 보존 사상으로서의 선형 변환

선형 변환은 단지 두 벡터 공간 사이에서 정의된 임의의 함수가 아니라, 정의역의 벡터 공간 구조 그 자체를 공역으로 그대로 옮기는 사상이다. 벡터 공간의 구조란 결국 두 가지, 즉 벡터의 덧셈과 스칼라 곱셈에 의해 결정되며, 이로부터 파생되는 모든 개념—원점, 직선, 평면, 부분 공간, 평행 관계, 선형 독립과 종속 관계, 그리고 일반적인 선형 결합—은 모두 두 기본 연산의 조합으로 표현된다. 가법성과 동차성의 두 조건을 만족한다는 사실은, 사상이 이러한 모든 파생 개념을 동시에 보존한다는 것과 동치이다. 본 절에서는 이 사실이 가지는 기하학적 의미를 체계적으로 분석한다.

2. 원점의 고정

선형 변환의 가장 즉각적인 기하학적 성질은 원점을 원점으로 보낸다는 점이다. 동차성으로부터 T(\mathbf{0}_V) = \mathbf{0}_W가 따라 나오므로, 정의역의 원점은 사상에 의해 공역의 원점으로 사상된다. 기하학적으로 이 사실은, 선형 변환이 평행 이동을 포함하지 않으며, 그 결과 어떠한 회전, 반사, 척도 조정, 전단(Shear)도 항상 원점 주위에서 수행됨을 의미한다. 평행 이동이 포함된 사상, 즉 아핀 변환은 일반적으로 원점을 보존하지 않으므로 선형 변환의 범주에 들어가지 않는다.

3. 직선과 평면의 보존

정의역의 임의의 직선은 매개변수 형식으로 \mathbf{p}(t) = t \mathbf{v}, t \in \mathbb{F}의 형태로 표현된다. 이는 원점을 지나고 방향 벡터가 \mathbf{v}인 직선이며, 선형 변환을 적용하면 다음을 얻는다.

T(\mathbf{p}(t)) = T(t \mathbf{v}) = t \, T(\mathbf{v})

따라서 정의역의 원점을 지나는 임의의 직선은 공역에서도 원점을 지나는 직선(혹은 T(\mathbf{v}) = \mathbf{0}_W인 경우 한 점으로 축약된 퇴화 직선)으로 사상된다. 마찬가지로 두 벡터 \mathbf{u}, \mathbf{v}에 의해 펼쳐지는 평면 \{ s \mathbf{u} + t \mathbf{v} : s, t \in \mathbb{F} \}는 다음의 식에 의해 공역의 평면(또는 더 낮은 차원의 부분 공간)으로 사상된다.

T(s \mathbf{u} + t \mathbf{v}) = s T(\mathbf{u}) + t T(\mathbf{v})

이는 선형 변환이 원점을 지나는 모든 부분 공간을 다시 원점을 지나는 부분 공간으로 보낸다는 일반적 사실의 가장 단순한 형태이다.

4. 부분 공간과 그 차원의 변화

보다 일반적으로, 정의역의 임의의 부분 공간 U \subseteq V에 대해 그 상(Image) T(U) = \{ T(\mathbf{u}) : \mathbf{u} \in U \}은 항상 공역 W의 부분 공간이 된다. 이는 가법성과 동차성으로부터 직접 따라 나온다. 즉, \mathbf{u}_1, \mathbf{u}_2 \in U이고 c_1, c_2 \in \mathbb{F}일 때, c_1 \mathbf{u}_1 + c_2 \mathbf{u}_2 \in U이고

c_1 T(\mathbf{u}_1) + c_2 T(\mathbf{u}_2) = T(c_1 \mathbf{u}_1 + c_2 \mathbf{u}_2) \in T(U)

이므로, T(U)는 덧셈과 스칼라 곱에 대해 닫혀 있는 집합, 즉 부분 공간이다. 그러나 부분 공간의 차원은 일반적으로 보존되지 않으며, 사상의 핵에 속한 벡터들이 정의역에서 모두 같은 영점으로 사상되는 만큼 차원이 감소할 수 있다. 이러한 현상은 차원 정리에 의해 정량화되며, 후속 절에서 다룬다.

5. 평행 관계와 선형 독립의 보존

기하학적으로 두 벡터가 평행하다는 것은 한쪽이 다른 쪽의 스칼라 배수로 표현될 수 있음을 의미한다. 즉, \mathbf{v} = c \mathbf{u}인 경우이다. 선형 변환은 이 관계를 즉각적으로 보존한다.

T(\mathbf{v}) = T(c \mathbf{u}) = c T(\mathbf{u})

따라서 평행한 두 벡터는 사상 후에도 평행한 두 벡터(혹은 둘 모두가 영벡터로 사상되는 퇴화 사례)로 남는다. 이는 선형 변환이 격자(Grid) 구조의 평행성을 깨뜨리지 않는다는 사실에 대응되며, 가시화에서 자주 사용되는 관찰이다.

선형 독립성 자체는 일반적으로 보존되지 않는다. 정의역에서 선형 독립인 벡터들이 사상 후 선형 종속이 될 수 있으며, 이는 사상의 핵이 자명하지 않을 때 발생한다. 그러나 선형 변환이 단사(Injective)인 경우에는 선형 독립성이 보존되며, 따라서 정의역의 기저는 항상 공역의 선형 독립인 벡터 집합으로 사상된다.

6. 격자(Grid)와 단위 셀의 변형

선형 변환의 작용을 가장 직관적으로 시각화하는 표준 방법은, 정의역에 그려진 균일한 좌표 격자가 사상 후에 어떻게 변형되는지를 관찰하는 것이다. 정의역의 표준 기저 벡터 \mathbf{e}_1, \mathbf{e}_2가 만들어 내는 단위 정사각형은 사상 후에 두 상 벡터 T(\mathbf{e}_1), T(\mathbf{e}_2)가 만들어 내는 평행사변형으로 변형된다. 이때 격자선들은 항상 직선으로 유지되며, 평행한 격자선은 사상 후에도 평행한 직선들로 남고, 격자선들 사이의 간격은 균일성을 유지한다. 이러한 관찰은 선형 변환을 “원점 주위에서의 균일한 격자 변형“으로 직관적으로 이해하는 표준적 방식이다.

이러한 격자 변형의 기하학적 양적 척도는 행렬식(Determinant)에 의해 부여된다. 즉, T : \mathbb{R}^{n} \to \mathbb{R}^{n}의 행렬 표현 A의 행렬식 \det(A)의 절댓값은 단위 부피가 사상 후에 가지는 부피의 비율이며, 부호는 방향(Orientation)의 보존 여부를 나타낸다. \det(A) = 0인 경우 사상은 차원을 잃는 퇴화 사상이며, 단위 부피가 0인 더 낮은 차원의 부분 공간으로 사상된다는 사실을 의미한다.

7. 대표적 선형 변환의 기하학적 분류

평면 \mathbb{R}^{2} 위에서 정의되는 대표적인 선형 변환은 그 기하학적 의미에 따라 몇 가지 표준적 부류로 분류된다. 첫째, 척도 변환(Scaling)은 모든 벡터를 동일한 비율 또는 축마다 다른 비율로 늘이거나 줄이는 변환이다. 둘째, 회전 변환(Rotation)은 모든 벡터를 원점을 중심으로 동일한 각도만큼 회전시키는 변환으로, 길이와 각도를 보존하는 직교 변환의 부분류이다. 셋째, 반사 변환(Reflection)은 어떤 직선을 축으로 하여 벡터를 거울상으로 보내는 변환이다. 넷째, 전단 변환(Shear)은 한 좌표 축을 따라 다른 좌표를 비례적으로 이동시키는 변환으로, 평행사변형을 보다 기울어진 평행사변형으로 만든다. 다섯째, 사영 변환(Projection)은 모든 벡터를 어떤 부분 공간 위로 수직으로 떨어뜨리는 변환이다.

이 모든 변환은 가법성과 동차성을 만족하므로 선형 변환이며, 각각 행렬에 의한 표현이 존재한다. 또한 임의의 복잡한 선형 변환은 이러한 기본 변환들의 합성으로 분해될 수 있다는 사실은, 후속 장에서 다루게 될 특이값 분해의 기하학적 해석으로 이어진다.

8. 신경망 가중치 행렬의 기하학적 해석

딥러닝에서 한 완전 결합 계층의 가중치 행렬은 입력 공간의 모든 벡터를 출력 공간의 어떤 벡터로 보내는 선형 변환을 정의한다. 따라서 가중치 행렬은 단순한 수의 배열이 아니라, 입력 공간의 격자 구조를 출력 공간의 격자 구조로 변형하는 기하학적 작용으로 이해될 수 있다. 가중치 행렬의 계수(Rank)가 입력 차원보다 작다면, 그 계층은 입력 공간 전체를 보다 낮은 차원의 부분 공간으로 사영하는 작용을 수행한다. 이러한 관찰은 LoRA와 같이 가중치 행렬을 두 저랭크 행렬의 곱으로 분해하는 기법을 정당화하는 기하학적 직관이며, 결국 학습 가능한 매개변수의 본질이 “어떤 기하학적 변형을 학습할 것인가“라는 질문으로 환원됨을 보여 준다.

9. 결론

선형 변환의 기하학적 해석은, 두 벡터 공간 사이의 사상이 가법성과 동차성이라는 두 대수적 조건을 만족할 때, 그 사상이 자동으로 부분 공간, 평행 관계, 격자 구조, 균일성, 원점이라는 모든 기하학적 구조를 보존한다는 사실을 명확히 한다. 이러한 구조 보존의 성질은 선형 변환을 단순한 함수가 아니라 벡터 공간 구조 사이의 자연스러운 사상, 즉 모피즘(Morphism)으로 격상시키며, 이로부터 행렬 표현, 합성, 역변환, 분해 등 모든 후속 분석이 가능해진다. 딥러닝의 모든 학습 가능한 선형 부분은 이러한 기하학적 작용을 매개변수화한 것이며, 신경망의 학습 과정은 결국 적절한 기하학적 변형을 자료로부터 자동으로 발견하는 절차이다.