特征分解(Eigendecomposition),又称谱分解(Spectral decomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。需要注意只有对可对角化矩阵才可以施以特征分解。
奇异值分解就是分解,将一个复杂的变换分解为三个简单的基本变换。这个分解体现了某些本质的东西,是一种广义的特征值分解。
特征值分解
特征值分解是将一个方阵A分解为如下形式:
其中,Q是方阵A的特征向量组成的矩阵,是一个对角矩阵,对角线元素是特征值。
通过特征值分解得到的前N个特征向量,表示矩阵A最主要的N个变化方向。利用这前N个变化方向,就可以近似这个矩阵(变换) 。
奇异值分解
奇异值分解(Singular Value Decomposition,SVD)是在机器学习领域广泛应用的算法,它不仅可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。 它能适用于任意的矩阵的分解并且也是很多机器学习算法的基石。
SVD是将m*n的矩阵A分解为如下形式:
其中,U和V是正交矩阵,即U是左奇异矩阵,S是对角阵(对角线上的元素是奇异值,非对角线元素都是0)右奇异的向量。
特征值用来描述方阵,可看做是从一个空间到自身的映射。奇异值可以描述长方阵或奇异矩阵,可看做是从一个空间到另一个空间的映射。
奇异值和特征值是有关系的,奇异值就是矩阵的特征值的平方根。
以上就是有关Python特征值分解的相关内容了,想要了解更多有关python的其它知识也可关注六星社区网站。
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!