线性变换和矩阵的关系

线性变换和矩阵的关系

学习泛函的过程中,深感自己的线性代数拖后腿,回过头补线性代数的知识。偶然看到一位台湾教授的网站,https://ccjou.wordpress.com/, 获益匪浅,非常感谢。

我在这篇博客主要介绍 线性变换和矩阵的关系, 请先看我的另一篇博客 线性变换

1. 一个例子

从一个例子说起, 定义向量空间 \(\mathcal {P}_2\) 为所有的二次函数 \(p(t) = a_0 + a_1 t + a_2 t^2\) 形成的集合。令 \(\mathcal {P}_2\) 的标准基底为 \(\boldsymbol {\beta} = \{ \mathbf {v}_1, \mathbf {v}_2, \mathbf {v}_3 \}, \mathbf {v}_j = t^{j-1}, j= 1,2,3\)

考虑下面这个线性变换 \[
q(t) = T(p(t)) = p(t+1)
\]
譬如, \(T(t^2 -4t+3) = (t+1)^2 -4(t+1)+3=t^2-2t\) 。给定 \(p(t) = a_0 + a_1 t + a_2 t^2\) , 如何计算 \(T(p(t))\) ? 将 \(p(t)\) 表示为 \(\mathbf {v}_1, \mathbf {v}_2, \mathbf {v}_3\) 的线性组合,则 \(p(t) = a_0 \mathbf {v}_1+a_1 \mathbf {v}_2+ a_2 \mathbf {v}_3\), 运用线性变换的基本性质,有: \[
\begin {aligned}
q(t) &= T( a_0 \mathbf {v}_1+a_1 \mathbf {v}_2+ a_2 \mathbf {v}_3) \\
&= a_0 T( \mathbf {v}_1)+a_1T( \mathbf {v}_2) + a_2 T(\mathbf {v}_3)
\end {aligned}
\]
换句话说,一旦得到每个基底向量 \(\mathbf {v}_j​\)\(T​\) 的映射结果 \(T(\mathbf {v}_j)​\) ,即可解出 \(q(t)​\)

基底 \(\boldsymbol {\beta} = \{ \mathbf {v}_1, \mathbf {v}_2, \mathbf {v}_3 \}\) 的像分别为: \[
\begin {aligned}
T( \mathbf {v}_1) &= T(t^0) = (1+t)^0 = 1 = \mathbf {v}_1 \\
T( \mathbf {v}_2) &= T(t) = 1 + t = \mathbf {v}_1 + \mathbf {v}_2 \\
T(\mathbf {v}_3) &= T(t^2) = (1+t)^2 = 1 + 2t + t^2 = \mathbf {v}_1 + 2 \mathbf {v}_2 + \mathbf {v}_3
\end {aligned}
\]
我们将上面3个式子的组合系数作为矩阵的行向量,有: \[
[T( \boldsymbol {\beta})] =
\begin {bmatrix}
1 & 0 & 0 \\
1 & 1 & 0 \\
1 & 2 & 1
\end {bmatrix}
\]
这个矩阵的问题是没有给出简明的计算方式,因为我们还要用基的线性组合表示结果 \(q(t)\) ,很复杂,并没有简化到适合矩阵计算的 \(\mathbb {R}^n\)\(\mathbb {C}^n\) 空间。

我们在此基础上更进一步,基于坐标映射的思想来建立运算架构。参考这篇文章 – 线性变换

\(p(t) = a_0 + a_1 t + a_2 t^2\) 参考基底 \(\boldsymbol {\beta} = \{ \mathbf {v}_1, \mathbf {v}_2, \mathbf {v}_3 \}\) ,它的坐标向量为 \[
[p]_{\boldsymbol {\beta}} = \begin {bmatrix}
a_0 \\
a_1 \\
a_2
\end {bmatrix}
\]
二次函数 \(p(t)​\) 与其坐标向量 \([p]_{\boldsymbol {\beta}}​\) 具有一对一的对应关系 (因为只有一组基底有且仅有一组系数)。我们的目标是将 \(q(t)​\) 也表示为基底向量 \(\mathbf {v}_1, \mathbf {v}_2, \mathbf {v}_3​\) 的线性组合。沿用上面的计算步骤,将 \(T( \mathbf {v}_j)​\) 的表达式代回 \(q(t)​\) ,整理可得: \[
\begin {aligned}
q(t) &= a_0 (\mathbf {v}_1) +a_1 (\mathbf {v}_1 + \mathbf {v}_2) + a_2 (\mathbf {v}_1 + 2 \mathbf {v}_2 + \mathbf {v}_3) \\
&= (a_0 + a_1 + a_2) \mathbf {v}_1+ (a_1 +2 a_2) \mathbf {v}_2 + (a_2)\mathbf {v}_3
\end {aligned}
\]
所以 \(q(t)\) 参考基底 \(\boldsymbol {\beta} = \{ \mathbf {v}_1, \mathbf {v}_2, \mathbf {v}_3 \}\) 的坐标向量为: \[
[q]_{\boldsymbol {\beta}} = \begin {bmatrix}
a_0 + a_1 + a_2 \\
a_1 + 2 a_2\\
a_2
\end {bmatrix}
\]
自然,我们可以设计下列矩阵乘法,来实现线性变换 \(q(t) = T(p(t))\) : \[
[q]_{\boldsymbol {\beta}} = \begin {bmatrix}
1 & 1 & 1 \\
0 & 1 & 2\\
0 & 0 & 1
\end {bmatrix}
\begin {bmatrix}
a_0 \\
a_1 \\
a_2
\end {bmatrix} =
[T]_{\boldsymbol {\beta}} [p]_{\boldsymbol {\beta}}
\]
我们将 \(q(t)\)\(p(t)\) 都采用坐标映射的方式表示,注意到我们在前面已经得到了 \(T( \mathbf {v}_1), T( \mathbf {v}_2), T(\mathbf {v}_3)\), 可以得到参考基底 \(\boldsymbol {\beta} = \{ \mathbf {v}_1, \mathbf {v}_2, \mathbf {v}_3 \}\) 的坐标向量 \[
[T(\mathbf {v}_1)]_{\boldsymbol {\beta}} = \begin {bmatrix}
1 \\
0 \\
0
\end {bmatrix}, \;
[T(\mathbf {v}_2)]_{\boldsymbol {\beta}} = \begin {bmatrix}
1 \\
1 \\
0
\end {bmatrix}, \;
[T(\mathbf {v}_3)]_{\boldsymbol {\beta}} = \begin {bmatrix}
1 \\
2 \\
1
\end {bmatrix}
\]
于是: \[
[T]_{\boldsymbol {\beta}} = \Big [ [T(\mathbf {v}_1)]_{\boldsymbol {\beta}} \quad [T(\mathbf {v}_2)]_{\boldsymbol {\beta}} \quad [T(\mathbf {v}_3)]_{\boldsymbol {\beta}} \Big]
= \begin {bmatrix}
1 & 1 & 1 \\
0 & 1 & 2\\
0 & 0 & 1
\end {bmatrix}
\]

2. 推广

推广到一般情况:

\(T: \mathcal {V} \to \mathcal {W}\) 是一个从向量空间 \(\mathcal {V}\) 映射到向量空间 \(\mathcal {W}\) 的线性变换,\(\dim \mathcal {V} = n\) 并且 \(\dim \mathcal {W} = m\) ,且 \(\boldsymbol {\beta}_{\mathcal {V}} = \{ \mathbf {v}_1, \ldots, \mathbf {v}_n \}\) 为向量空间 \(\mathcal {V}\) 的基底,\(\boldsymbol {\beta}_{\mathcal {W}} = \{ \mathbf {w}_1, \ldots, \mathbf {w}_m \}\)\(\mathcal {W}\) 的基底。

我们可以得到一个重要结论:

线性映射 \(\mathbf {y} = T(\mathbf {x})\) 对应矩阵乘法 \([\mathbf {y}]_{\boldsymbol {\beta}_{\mathcal {W}}} = A [\mathbf {x}]_{\boldsymbol {\beta}_{\mathcal {V}}}\)

其中 \(m \times n\) 阶线性变换可以用矩阵 \(A\) 表示,\(A\) 的每 \(j\) 个列向量是 \(T(\mathbf {v}_j)\) 参考 \(\boldsymbol {\beta}_{\mathcal {W}}\) 的坐标向量 \([T(\mathbf {v}_j)]_{\boldsymbol {\beta}_{\mathcal {W}}}\) : \[
A = \Big [ [T(\mathbf {v}_1)]_{\boldsymbol {\beta}_{\mathcal {W}}} \cdots [T(\mathbf {v}_j)]_{\boldsymbol {\beta}_{\mathcal {W}}} \cdots [T(\mathbf {v}_n)]_{\boldsymbol {\beta}_{\mathcal {W}}} \Big]
\]
\(L_V: \mathcal {V} \to \mathbb R^n\)\(L_W: \mathcal {W} \to \mathbb R^m\) 为对应基底 \(\boldsymbol {\beta}_{\mathcal {V}}\)\(\boldsymbol {\beta}_{\mathcal {W}}\) 的坐标映射,即 \(L_V (\mathbf x) = [\mathbf {x}]_{\boldsymbol {\beta}_{\mathcal {V}}}\)\(L_V (\mathbf y) = [\mathbf {y}]_{\boldsymbol {\beta}_{\mathcal {W}}}\) ,则线性变换 \(T\) 和矩阵 \(A\) 的关系如下图所示:

证明如下:

对于 \(j = 1, \ldots, n\) ,将基底向量 \(\mathbf {v}_j\) 表示为: \[
\mathbf {v}_j = 0 \mathbf {v}_1 + \cdots + 1 \mathbf {v}_j + \cdots + 0 \mathbf {v}_n
\]
显然,我们可以得到 \([\mathbf {v}_j]_{\boldsymbol {\beta}_{\mathcal {V}}}\)\(n\) 维列向量,第 \(j\) 个元为 1 \[
[\mathbf {v}_j]_{\boldsymbol {\beta}_{\mathcal {V}}} =
\begin {bmatrix}
0 \\
\vdots \\
1 \\
\vdots \\
0
\end {bmatrix}
\]
因此: \[
A [\mathbf {v}_j]_{\boldsymbol {\beta}_{\mathcal {V}}} =
\begin {bmatrix}
a_{1j} \\
a_{2j} \\
\vdots \\
a_{mj}
\end {bmatrix}
\]
注意这里我们并不知道 \(A\) 应该如何表示,只知道它是一个 \(m \times n\) 阶矩阵

注意到,如果 \(\mathbf {x} = \mathbf {v}_j\) ,则 \(\mathbf {y} = T(\mathbf {x}) = T(\mathbf {v}_j)\) ,要证明上面公式,等于证明: \[
[T(\mathbf {v}_j)]_{\boldsymbol {\beta}_{\mathcal {W}}} = A [\mathbf {v}_j]_{\boldsymbol {\beta}_{\mathcal {V}}} = \begin {bmatrix}
a_{1j} \\
a_{2j} \\
\vdots \\
a_{mj}
\end {bmatrix}
\]
另一方面我们知道 \(T(\mathbf {v}_j) \in \mathcal {W}\) ,因此利用基底 \(\boldsymbol {\beta}_{\mathcal {W}} = \{ \mathbf {w}_1, \ldots, \mathbf {w}_m \}\) 表示: \[
T(\mathbf {v}_j) = b_1 \mathbf {w}_1 + \cdots + b_m \mathbf {w}_m
\]
这里 \((b_1, \ldots, b_m)\) 是唯一存在的,也是 \(T(\mathbf {v}_j)\) 参考 \(\boldsymbol {\beta}_{\mathcal {W}}\) 的坐标向量,因此我们自然就有: \[
a_{1j} = b_1, \ldots, a_{mj} = b_m
\]
也就是说,当我们确定向量空间 \(\mathcal {V}\)\(\mathcal {W}\) 的基底,则矩阵 \(A\) 是唯一的,可以用它表示线性变换 \(T\)

One thought on “线性变换和矩阵的关系

发表评论

电子邮件地址不会被公开。 必填项已用*标注

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d 博主赞过: