SVD分解即奇异值分解, 可以从特征值分解推导而来。先理解特征值分解 特征值和特征向量对矩阵A,存在特征向量和特征值满足: 如果把矩阵A理解为线性变换,那么上式表示:可以找到向量使得A只能对它进行倍的拉伸。 以基变换来理解。我们先构建一个“绝对”坐标系(如下图)。为了便于计算,设置原基为和,正好与“ ...
QR Decomposition 矩阵的QR分解
Posted on
|
In
Technic
矩阵的QR分解来源于gram-schmidt正交化. 先看后者 gram-schmidt正交化我们有空间的一组基 ,并希望得到该空间的一组正交基 1) 令,则被消灭 2) 向作垂线获得,那么和正交,且可以表示,则被消灭 向量到向量的正交投影为 则 3) 向和表示的二维平面作垂线,获得,那么,,互相 ...
Matrix Similarity 矩阵相似
Posted on
|
In
Technic
相似矩阵矩阵的意义之一就是,它代表一种线性变换。一种线性变换在不同的基下的表示方式是不一样的。相似矩阵表达的是:同一个线性变换在不同基下的表达。 下面的推导将会证明矩阵A和B矩阵相似,也就是说在下图左边的基下,A矩阵能够将向量顺时针转动一个角度且拉伸到一定倍数,而在右边的基下,B矩阵也能将该向量顺时 ...