奇异值分解SVD的理解与应用
为更好的理解这篇文章,现在这里列出几个文中出现的概念,想要更深的理解这些概念,可以看我的另一篇文章:关于特征值的理解。
向量的内积:两向量a=[a1,a2,…,an]和b=[b1,b2,…,bn],其内积为 a?b=a1b1+a2b2+……+anbn。
特征值与特征向量:对一个m×m矩阵A和向量x,如果存在λ使得下式成立,Ax=λx,则称λ为矩阵A的特征值,x称为矩阵的特征向量。
对角矩阵:对角矩阵是除对角线外所有元素都为零的方阵。
正交矩阵:正交是一个方块矩阵V,行与列皆为正交的单位向量,即Vn×nVTn×n=In,使得该矩阵的转置矩阵为其逆矩阵,VT=V?1。
直接进入正题,矩阵当中有一个非常著名的理论,即:
一个n×n的对称矩阵A可以分解为:A=VDVT。其中,V是一个n×n正交矩阵,并且列向量是矩阵A的特征向量;D是一个n×n对角矩阵,并且对角线上的值为对应特征向量的特征值。
上面的理论是针对一个n×n的对称矩阵,那么对于任意的一个m×n的矩阵A,有没有类似的表达方法呢。答案是肯定的,svd正是用来解决这个问题的。
对任意一个m×n的矩阵A,可以将其分解为:A=USVT。其中U是一个m×m的正交矩阵;S是一个m×n的矩阵,其主对角元素≥0,非主对角元素均为0;V是一个n×n的正交矩阵。
关于svd的证明过程,似乎更多是数值上的工作,本文想给出更多intuitive上的理解。想要了解证明的可以参考这篇论文:Kalman D. A singularly valuable decomposition: the SVD of a matrix。
这样,对任意一个矩阵,我都可以分解成三个矩阵的内积。让我们看一下它有什么神奇的性质。
AAT=USVTVSTUT=USSTUT=UDUT(1)
由于V是一个正交矩阵,VT=V?1,所以VT*V=I。S只有主对角元素不为0,那么SST的结果为一个m×m的对角矩阵D。而虽然A是任意的一个m×n的矩阵,但AAT是一个m×m的对称矩阵。这样一看,AAT=UDUT是不是和前面那个理论非常相似。那么U的列向量应该是对称矩阵AAT的特征向量,D应该是一个对角矩阵,且对角线上值是对称矩阵AAT的特征值。ATA=VSTUTUSVT=VSTSVT=VWVT(2)
同样,V的列向量则是对称矩阵ATA的特征向量,而W则是一个n×n的对角矩阵。这里W和D实际上是相同的,只是对角线上后面的0的数量不一样。可以看出,矩阵S主对角线上的值,实际上是对称矩阵AAT或ATA特征值的平方根。
所以,实际上svd是一个矩阵分解方法,对于任意一个m×n的矩阵A,svd都可以将其分解成为A=USVT。其中矩阵U的列向量是对称矩阵AAT的特征向量,称作左奇异矩阵;矩阵V的的列向量是对称矩阵ATA的特征向量;S是一个m×n的矩阵,主对角线上的值是对称矩阵AAT或ATA特征值的平方根,称作奇异值,且非对角线上的值为0.
不知道写到这里,大家是不是对svd有了一个比较具体的印象。然而,上面只是从数学上解释了svd的构成,我们好奇的是,从很多地方,我们都听到了svd,即使如上面所述,它长的是这个样子,但是我们它到底可以用来做什么事情呢?
下面我们举几个svd的实际应用,加深我们对它的理解。
1)有损的数据压缩
假设我们有一个m×n的矩阵A,它表示一组数据