如何理解矩阵特征值?
关注者
7,138被浏览
2,831,823登录后你可以
不限量看优质回答私信答主深度交流精彩内容一键收藏
各位知友在点赞同之前请看一下评论区。这个例子有待讨论。
-----------
我举一个直观一点的例子吧...我也喜欢数学的直观之美。
我们知道,一张图像的像素(如:320 x 320)到了计算机里面事实上就是320x320的矩阵,每一个元素都代表这个像素点的颜色..
如果我们把基于特征值的应用,如PCA、向量奇异值分解SVD这种东西放到图像处理上,大概就可以提供一个看得到的、直观的感受。关于SVD的文章可以参考LeftNotEasy的文章:
机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用简单的说,SVD的效果就是..用一个规模更小的矩阵去近似原矩阵...
A_{m\times n} \approx U_{m\times r} \Sigma_{r\times r} V_{r\times n}
这里A就是代表图像的原矩阵..其中的\Sigma_{r\times r}尤其值得关注,它是由A的特征值从大到小放到对角线上的..也就是说,我们可以选择其中的某些具有“代表性”的特征值去近似原矩阵!
左边的是原始图片
当我把特征值的数量减少几个的时候...后面的图像变“模糊”了..
同样地...
关键的地方来了!如果我们只看到这里的模糊..而没有看到计算机(或者说数学)对于人脸的描述,那就太可惜了...我们看到,不论如何模糊,脸部的关键部位(我们人类认为的关键部位)——五官并没有变化太多...这能否说:数学揭示了世界的奥秘?