28.11 텐서의 좌표 변환 법칙과 기저 변환에 대한 불변성

28.11 텐서의 좌표 변환 법칙과 기저 변환에 대한 불변성

1. 텐서의 좌표 의존적 표현과 기하학적 본질

1.1 좌표 표현과 기하학적 대상의 구분

텐서(tensor)는 본질적으로 기저(basis) 또는 좌표계의 선택과 무관하게 정의되는 기하학적·대수적 대상이다. 그러나 실제 계산을 위해서는 특정 기저에 대해 텐서를 성분(component)으로 표현해야 한다. 동일한 텐서가 서로 다른 기저에서 다른 성분 값을 가지므로, 기저 변환에 따라 성분이 어떻게 변환되는지를 규정하는 좌표 변환 법칙(coordinate transformation law)이 텐서 이론의 핵심이다.

이 변환 법칙의 가장 중요한 성질은, 텐서 성분이 변환되더라도 텐서 자체는 변하지 않는다는 점이다. 이를 텐서의 좌표 변환에 대한 불변성(invariance under coordinate transformations)이라 하며, 이 성질이 텐서를 단순한 다차원 배열과 구별되게 한다.

2. 기저 변환의 형식적 정의

2.1 기저 변환 행렬

n차원 벡터 공간 V에서 두 기저 \{\mathbf{e}_i\}_{i=1}^{n}\{\mathbf{e}'_j\}_{j=1}^{n}이 주어졌다고 하자. 새로운 기저의 각 벡터는 원래 기저의 선형 결합으로 표현된다:

\mathbf{e}'_j = \sum_{i=1}^{n} A^i{}_j \mathbf{e}_i

여기서 A^i{}_j는 기저 변환 행렬(change of basis matrix) \mathbf{A}의 원소이다. 역변환은 역행렬 \mathbf{B} = \mathbf{A}^{-1}에 의해 주어진다:

\mathbf{e}_i = \sum_{j=1}^{n} B^j{}_i \mathbf{e}'_j

행렬 \mathbf{A}가 가역(invertible)이어야 두 기저가 모두 벡터 공간을 생성한다.

3. 벡터의 변환 법칙

3.1 반변(Contravariant) 벡터

벡터 \mathbf{v} \in V를 두 기저로 표현하면:

\mathbf{v} = \sum_{i=1}^{n} v^i \mathbf{e}_i = \sum_{j=1}^{n} v'^j \mathbf{e}'_j

기저의 변환 관계 \mathbf{e}_i = \sum_j B^j{}_i \mathbf{e}'_j를 대입하면:

\mathbf{v} = \sum_{i,j} v^i B^j{}_i \mathbf{e}'_j = \sum_j \left(\sum_i B^j{}_i v^i\right) \mathbf{e}'_j

기저 표현의 유일성으로부터:

v'^j = \sum_{i=1}^{n} B^j{}_i v^i = \sum_{i=1}^{n} (A^{-1})^j{}_i v^i

벡터 성분이 기저 변환 행렬의 역행렬에 의해 변환되므로 이를 반변(contravariant) 변환이라 한다. 반변 성분은 위 첨자(upper index)로 표기한다.

3.2 공변(Covariant) 벡터

쌍대 공간(dual space) V^*의 원소인 코벡터(covector) 또는 1-형식(1-form) \omega의 성분 \omega_i는 다음과 같이 변환된다:

\omega'_j = \sum_{i=1}^{n} A^i{}_j \omega_i

코벡터의 성분은 기저 변환 행렬과 동일한 행렬에 의해 변환되므로 공변(covariant) 변환이라 하며, 아래 첨자(lower index)로 표기한다.

4. 일반 텐서의 변환 법칙

4.1 (p, q)형 텐서의 변환

p개의 반변 지표와 q개의 공변 지표를 가지는 (p, q)형 텐서 T의 성분 T^{i_1 \cdots i_p}{}_{j_1 \cdots j_q}는 다음과 같이 변환된다:

T'^{k_1 \cdots k_p}{}_{l_1 \cdots l_q} = \sum_{i_1, \ldots, i_p} \sum_{j_1, \ldots, j_q} (A^{-1})^{k_1}{}_{i_1} \cdots (A^{-1})^{k_p}{}_{i_p} A^{j_1}{}_{l_1} \cdots A^{j_q}{}_{l_q} T^{i_1 \cdots i_p}{}_{j_1 \cdots j_q}

각 반변 지표는 \mathbf{A}^{-1}에 의해, 각 공변 지표는 \mathbf{A}에 의해 변환되며, 이 변환은 모든 지표에 대해 독립적으로 적용된다.

4.2 변환 법칙의 텐서적 정의

리치-쿠르바스트로(Gregorio Ricci-Curbastro)와 레비-치비타(Tullio Levi-Civita)에 의해 19세기 말 정립된 텐서의 고전적 정의는 이 변환 법칙 자체를 통해 텐서를 규정한다: (p, q)형 텐서란 모든 가능한 기저 변환에 대해 위의 변환 법칙을 만족하는 성분의 집합이다. 이 정의는 텐서를 좌표 표현의 측면에서 특성화하나, 좌표 무관(coordinate-free) 정의인 다중선형 사상(multilinear map)으로서의 정의와 동등하다.

5. 기저 변환에 대한 불변성

5.1 기하학적 대상의 불변성

벡터 \mathbf{v} 자체는 좌표계에 무관한 기하학적 대상이며, 그 표현 v^i만이 기저에 의존한다. 변환 법칙에 의해 성분이 적절히 변화함으로써, 동일한 벡터가 새로운 기저에서도 일관되게 표현된다:

\sum_i v^i \mathbf{e}_i = \sum_j v'^j \mathbf{e}'_j

이 등식은 텐서의 본질적 불변성을 표현한다. 텐서는 좌표 표현이 변하더라도 그 자체로는 동일한 대상이다.

5.2 텐서 방정식의 좌표 무관성

물리학과 미분 기하학에서 텐서의 중요성은 이 불변성에 있다. 텐서 방정식 T = 0 (또는 두 텐서의 등식 T = S)이 어떤 한 좌표계에서 성립하면, 변환 법칙에 의해 다른 모든 좌표계에서도 성립한다. 이는 물리 법칙이 특정 좌표계에 의존하지 않아야 한다는 일반 공변성 원리(principle of general covariance)의 수학적 근거이다.

5.3 스칼라 불변량

(0, 0)형 텐서, 즉 스칼라(scalar)는 기저 변환에 대해 성분 자체가 변하지 않는다:

S' = S

대표적 스칼라 불변량으로 두 벡터의 내적 g_{ij} v^i w^j, 텐서의 축약(contraction)에 의한 자취(trace) 등이 있다. 이러한 불변량은 좌표계의 선택과 무관한 본질적 양을 표현한다.

6. 구체적 사례

6.1 차원 회전 변환

2차원 유클리드 공간에서 좌표축을 각도 \theta만큼 회전시키는 경우, 기저 변환 행렬은:

\mathbf{A} = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}

벡터 (v^1, v^2)의 새 좌표계에서의 성분은 \mathbf{A}^{-1} = \mathbf{A}^T (직교 행렬)에 의해:

\begin{pmatrix} v'^1 \\ v'^2 \end{pmatrix} = \begin{pmatrix} \cos\theta & \sin\theta \\ -\sin\theta & \cos\theta \end{pmatrix} \begin{pmatrix} v^1 \\ v^2 \end{pmatrix}

벡터의 노름 \sqrt{(v^1)^2 + (v^2)^2}는 이 변환에 대해 불변이며, 이는 직교 변환이 내적을 보존하기 때문이다.

6.2 (1, 1)형 텐서의 변환

선형 변환을 나타내는 (1, 1)형 텐서(즉, 행렬) T^i{}_j의 변환은:

T'^k{}_l = \sum_{i, j} (A^{-1})^k{}_i A^j{}_l T^i{}_j

행렬 표기로는 \mathbf{T}' = \mathbf{A}^{-1} \mathbf{T} \mathbf{A}이며, 이는 선형대수학에서 친숙한 닮음 변환(similarity transformation)이다. 행렬의 자취 \text{tr}(\mathbf{T})와 행렬식 \det(\mathbf{T})은 닮음 변환에 대해 불변이며, 이는 텐서의 불변량(invariant)에 해당한다.

7. 딥러닝과 기계 학습에서의 함의

7.1 좌표 무관 학습

딥러닝의 일부 응용에서 데이터의 좌표 표현은 임의적이다. 예를 들어, 분자의 3차원 구조는 어떤 좌표계에서 기술하든 동일한 물리적 객체이다. 이러한 데이터에 대해 학습된 모형이 좌표계에 의존하지 않도록 하는 것이 등변 신경망(equivariant neural network)의 목표이며, 이는 텐서 변환 법칙의 명시적 활용을 통해 달성된다.

7.2 일반 좌표계와 미분 기하학

신경망이 다양체(manifold) 위에서 정의되는 경우, 미분 기하학적 텐서의 변환 법칙이 직접 활용된다. 그래프 신경망(graph neural network), 다양체 학습(manifold learning), 곡률 기반 최적화 등의 영역에서 좌표 변환에 대한 불변성/등변성은 모형의 일반화 능력에 중요한 영향을 미친다.

8. 결론

텐서의 좌표 변환 법칙은 반변 지표와 공변 지표 각각에 대해 독립적으로 적용되며, 텐서의 성분은 기저 변환에 따라 정확히 규정된 방식으로 변화한다. 이 변환 법칙의 핵심적 의의는, 성분의 변화에도 불구하고 텐서 자체가 좌표계와 무관한 기하학적 대상으로서 불변하게 유지된다는 점이다. 텐서 방정식의 좌표 무관성, 스칼라 불변량의 존재, 그리고 이로부터 도출되는 일반 공변성 원리는 물리학과 미분 기하학에서 텐서가 핵심적 도구로 사용되는 근본적 이유이다.