【线性代数】当我们在谈论特征根/特征向量时,我们到底在谈论什么?

文摘   2024-07-03 06:39   比利时  

我本科的时候学过线代,并且成绩不差(3.8/4)。但是考完以后我都清楚自己对真正的线性代数一无所知,我只是套公式做题而已。而作为中国式应试教育的经历者,我很不幸地在考完线代后才充分确信:1分数在某些时候可以完全是扯淡的东西2人们完全可能因为追求分数而错过了很多真正美好的东西

线性代数中的特征根和特征向量就是很美好的东西,可惜我在第一次学习时并没有充分理解它们。


特征根和特征向量的英文是eigenvalueseigenvectorseigen是一个德文词,它实际上的意思是“自身的”,“原本的”,如果你把它翻译成英文,就可以理解为inherent,或者characteristic。语言在翻译过程中会失真,更何况这里潜在地隔着两道翻译,所以让我们先牢记eigen作为“自身的”/“原本的”的含义。

理解特征根和特征向量为什么这么叫,还需要理解一个点,就是当我们做任何诸如Ab这样的矩阵乘法时,我们都是在对向量b施加矩阵A所对应的线性变换。具体是什么意思呢?

假如我们现在仅有一条向量b本身,这时我们可以把它等同性地看作Ib,一个Identity matrix乘以这个向量本身。从矩阵乘法的角度看,我们可以把一条向量b看作对Identity matrix中各列进行线性组合的结果。

假如我们有一条向量b=(2, 3, 4),显然,I中的各列依次为(1, 0, 0), (0, 1, 0), (0, 0, 1),而Ib则代表着“2*第一列+3*第二列+4*第三列”,我们可以把它可视化为下图的情况:

那么如果我们现在左乘的矩阵不再是I,而是某个如下的A呢?

我不再做可视化,但是你们可以想象这时就相当于我们把y轴缩短了两倍,然后再去形成向量b。我们还可以同时将x轴拉伸两倍,这时矩阵A将如下所示:

那么如果A变成了如下的一团乱麻呢?

Well,你可以在原有的3D坐标系中绘制出三条A的列向量,然后用这三条列向量作为坐标轴,用相同的方法去构建新的b向量。

如上,每次过程中,我们有一条原始的b向量=(2, 3, 4),然后再有一条左乘A后的b向量,从老的b向量转向新的b向量(也就是Ab)就是一个线性变化的过程。有关这个线性变换的可视化,大家可以看3brown1blue的视频,他的视频在b站有翻译版本:


在理解了矩阵作为一种线性变换的本质后,我们可以再来看看特征向量的公式:

这个公式在说什么呢?它实际上在说,当我们对向量x进行矩阵A对应的线性变换后,向量x会“保持自己的本色”,它的方向不会产生变化,它只会在长度方面做变化(而特征根就表明了长度变化的比例)。这其实也是特征向量,也就是eigenvectors之所以叫作eigenvectors的原因:每个矩阵的eigenvectors都代表着,在经过对应矩阵的线性变换后,仍能够保持自身的那些向量——它与eigen在德语中代表“自身的”这一意思是相呼应的

我们可以回过头来看我前面讲的b向量的多个例子,在上述多个例子中,b向量在经历每个矩阵A所对应的线性变换时,都没能幸免,它并没有能够“保持本色”,所以它并不是这些矩阵A的特征向量。

那么到底什么样的向量会在整个坐标系风雨飘摇的时候“保持本色”呢?3brown1blue的视频中也有关于这个过程的可视化,有兴趣的朋友可以去观看。

最后,我详细展开一下我开篇提到的两点:1即使我完全不理解特征根和特征向量是什么,我也轻松地能够完成对某个特定矩阵A的特征根和特征向量的求解2因为完成求解后我就可以拿到分数,而该死的线代老师也从未教授过我特征根和特征向量背后真正的含义,也因此我错过了如此美妙的东西,甚至有可能从此成为一个毫无taste的人形计算器……

简而言之,我一直觉得追求高分没有错,我自己也很喜欢考高分,但是我觉得我们不应该以牺牲学习体验为代价,去追求高分,而线代的学习体验很有可能在绝大多数线代课程中都被严重牺牲了……


如上,就是特征根和特征向量到底为何的解释。希望本篇文章对你有帮助!也欢迎点赞+转发,关注本公众号支持我一下,你的支持是我最大的动力!

PsychoStatisticia
一个统计学研究者的个人天地
 最新文章