本文重点
线性变换在机器学习中具有广泛的应用,它是指将一个向量空间中的向量映射到另一个向量空间中的函数,这种映射关系保持向量加法和标量乘法的运算性质。
线性变换的几何直观理解
1.变换前是直线,变换之后还是直线
2.变换前是原点,变换之后还是原点
3.直线的比例不变
如下所示,我们你可以看到我们通过两种常见的线性变换,分别是旋转和推移,我们可以看到完全符合上面的三条规则
线性变换的定义
设V(F)与W(F)是两个线性空间,σ是由V(F)到W(F)的一个映射,且满足以下的条件
σ(X+Y)=σ(X)+σ(Y),∀X,Y∈V(F)
σ(λX)=λσ(X),∀λ属于F,X∈V(F)
则称映射σ为由线性空间V(F)到线性空间W(F)的线性映射,特别的,若还有W(F)⊂V(F),则称线性映射σ为V(F)上的线性变换。
线性变换的性质
设σ:V(F)→U(F)是线性映射,则:
1.σ(0)=0',其中0和0’分别为V(F)与U(F)的零元素
2.σ(-X)=-σ(X),∀X∈V(F)
3.σ将V(F)中的线性相关向量组映射为U(F)中的线性相关向量组
4.设V1(F)是V(F)的子空间,即σ(V1(F))={σ(X) | X ∈ V1 (F) },则σ(V1(F))是U(F)的子空间,且dimσ(V1(F))≤dim V1(F)
线性变换与矩阵
矩阵乘法是一种线性变换。对于有限维向量空间,我们可以将线性变换表示为矩阵的形式。具体来说,如果V和W都是n维向量空间,那么从V到W的任意线性变换T都可以唯一地由一个n×n矩阵A表示,即对于V中的任意向量v,都有T(v) = Av。
这种表示方法不仅简化了线性变换的计算过程,还使得我们可以利用矩阵的性质来研究和分析线性变换。例如,线性变换的可逆性、特征值和特征向量等都可以通过矩阵运算来求解。