在线性代数-向量空间中谈完了向量空间和向量的表示,我们现在来看一下向量空间中的运动,毕竟,整个线性代数描述的其实是向量空间中的运动。
线性映射
向量空间中描述的运动不是我们常规认识上的运动,向量空间中的运动都是瞬时的,它和时间无关,只描述方向和大小。 向量空间上线性映射是这么定义的:
一个线性映射T是从向量空间V到向量空间W的一个函数,这个函数具有如下的性质: - 相加性: T(u+v)=Tu+Tv,其中u,v∈V - 齐次性: T(λv)=λ(Tv), 其中λ∈R,v∈V
我们可以看到,所谓的线性映射其实也不过是一种函数,将向量从一个空间映射到另外一个空间,且这种映射满足两个特殊的条件。 在数学上,我们用L(V,W)表示所有从V到W的线性映射. 简单想一想,我们就能知道,L(V,W)其实也是一个向量空间,其中的元素是一个一个的函数,但同时又满足向量空间定义中的条件。 相关的证明,能够在任意的线性代数的教课书上找到。
在给出了线性映射的定义之后,我们又回到了那个老问题,如何表示一个线性映射?总不至于将V和W中的每一对向量都列出来吧?
这个时候(又是见证人类智慧伟大结晶的时候了),我们就需要引入矩阵的概念了。 根据我们在上一节中说明的,向量空间中的任意一个向量都可以用一组「基」来唯一的表示。 假设v1,…,vn是V的一组基,w1,…,wm是W的一组基,且T∈L(V,W), 那么如下的等式一定成立:
Tvi表示的是任何一个基向量经过线性映射之后在W中的向量,w1,…wm又是W中的基,因此一定存在一组唯一的A1i,⋯,Ami坐标来表示Tvi. 而,v1,⋯,vn又能完全表示V中的任意一个向量,也就是说,任意个向量v∈V的映射后的向量Tv都能表示成:
上面的推导想要说明的是,如在原空间中的任意一个向量的坐标是a1,⋯,an的话,那么其经过T映射之后的向量的坐标就是a1A11+⋯+anA1n,⋯,amAm1+⋯+anAmn.也就说,一旦确定了两个空间的基之后,通过m×n个数,就能确定一个线性映射了。
那么,这个映射后的坐标a1A11+⋯+anA1n,⋯,amAm1+⋯+anAmn 有没有觉得很眼熟? 将这个坐标表示成:
这不就是当年我们学习矩阵和向量的乘法吗? 因此,我们就可以得出结论,所谓的矩阵其实就是线性映射的一种表示方式。
矩阵的秩
现在,我们知道,矩阵的每一列A1i,⋯,Ami其实是原空间上的一个基向量vi经过矩阵A代表的线性映射T在新空间上的一个坐标。
也就是说A1i,⋯,Ami其实也是一个(W空间里的)向量(其基是w1,⋯,wm)。 我们现在用Ai来表示整个A1i,⋯,Ami向量序列。 我们知道,Ai,i∈{1,2,⋯,m}是W上的一组向量,那么我们不经要问span(A1,⋯,Am)是否等于整个W呢?
这个问题是很重要的,如果span(A1,⋯,Am)只是W的一个子集,那也就是说,这个矩阵包含了比较少的信息,只能覆盖W的一个子集; 相反,如果span(A1,⋯,Am)等于整个W,那么就说明A包含了''足够''的信息,能够将整个V映射到整个W上。 那么我们该如何判断A包含了多少信息呢?
一种度量方式就是看span(A1,⋯,Am)的维度,如果span(A1,⋯,Am)的维度等于W的维度,那么span(A1,⋯,Am)就等于整个W. 而span(A1,⋯,Am)其实就是我们常说的矩阵的秩。 我们平时所说的满秩矩阵其实就是说这个矩阵代表的线性映射能够覆盖整个目标空间。
当然,在实际应用中,我们通常比较喜欢的是低秩矩阵,因为它不是满秩的,说明线性映射之后,只是W的一个子空间,说明A的信息量少,这样的矩阵可以进行降维,可以进行大幅度的压缩。
参考资料
更新日志
- 2018年7月11日写作
- 2018年7月14日发表