终于理解PCA了!感谢李宏毅老师

作者: 抬头挺胸才算活着 | 来源:发表于2018-08-27 17:33 被阅读685次

参考资料:
李宏毅 机器学习 24.13 Unsupervised Learning - Linear Me(Av10590361,P24).Flv

在之前的学习中,我看到很多很好的解释,但是在数学的推导上还存在一些漏洞,百思不得其解,但是今天看到李宏毅老师的推导,神清气爽。

  • PCA求解推导
    我们的目标是求出单位投影向量W,数据s投影后的方差和最大。



    第一个投影向量求解,如右下角所示,是一个条件优化问题



    拉格朗日乘数法,得到特征值的计算公式,这还不够,继续推导可知只有特征值最大对应的特征向量才是我们要求的第一个向量。

  • PCA decorrelation
    投影后数据在新的坐标的Cov各个维度之间是不相关的,也就是矩阵对角线外都为0,这样在做实现模型的时候可以减少参数,比如高斯假设的时候,各轴之间相关为0,那么减少了很多参数。


  • SVD
    SVD的角度是几个矩阵相乘跟原来矩阵误差最小,SVD的求解也是要求特征值和特征向量,所以跟PCA还是蛮像的。


  • PCA像一个隐藏层的神经网络,线性激活函数
    Autoencoder
    跟PCA还有点区别是w之间不是垂直的,解出来误差比PCA大,但是可以变长一点。


  • PCA的缺点
    将数据降维后混在一起,LDA会根据标签将数据分开。
    线性


  • NMF
    分解得出系数非负,这样就像叠加了,如果可以是负的可以是减去。

  • Matrix Factorization
    每个用户又会一定的呆、傲成分,每个物品也有一定的呆、傲成分,用户买得越多,说明两者相似度越高(内积)。



    于是出现下面的等式,我们希望求得人和物品属性对应的向量,内积得到买卖的矩阵,跟实际的买卖矩阵相似,这个可以用SVD来进行求解。
    如果是买卖矩阵有缺失值,用gradient descent做也是可以的



    求解出来后,可以预测缺失值

    更准确模型,注意新添加的bA和b1的含义。
  • 其他降维方法


相关文章

  • 终于理解PCA了!感谢李宏毅老师

    参考资料:李宏毅 机器学习 24.13 Unsupervised Learning - Linear Me(Av1...

  • 线性回归(1)

    感谢李宏毅《回归-案例研究》 部分内容为听取李宏毅老师讲座的笔记,也融入了自己对机器学习理解,个人推荐李宏毅老师的...

  • 2020机器学习正向传播和反向传播

    感谢李宏毅老师的机器学习,部分内容参考了李宏毅老师的讲义 今天我们来说一说正向传播和反向传播,这里感谢李宏毅老师讲...

  • 2020机器学习 Transform 模型(1)

    首先感谢李宏毅老师的分享,让我受益匪浅。部分图片也直接引用李宏毅老师的ppt 截图 今天我们将介绍 Bert,那么...

  • 2020机器学习卷积神经网(1)

    感谢李宏毅老师的机器学习,部分内容参考了李宏毅老师的讲义 卷积神经网络 今天我们回头看一看卷积神经网,告诉我们是可...

  • 卷积神经网CNN(1)

    感谢李宏毅老师参考《TensorFlow 学习指南》和《TensorFlow 深度学习》参考网上视频 卷积神经网络...

  • 李宏毅老师机器学习课程笔记_ML Lecture 3-1: Gr

    引言: 这个系列的笔记是台大李宏毅老师机器学习的课程笔记视频链接(bilibili):李宏毅机器学习(2017)另...

  • 循环神经网络(1)

    感谢李宏毅的分享参考《TensorFlow 学习指南》和《TensorFlow 深度学习》感谢 sentdex 的...

  • 《李宏毅 - 深度学习》笔记

    学习资源 视频:李宏毅深度学习完整版 别人的中文笔记:李宏毅机器学习笔记(LeeML-Notes)李宏毅机器学习笔...

  • [李宏毅机器学习]系列文章

    介绍 本系列文章为台湾大学李宏毅老师机器学习课程的个人学习笔记。 参考资料 datawhale-李宏毅机器学习笔记...

网友评论

本文标题:终于理解PCA了!感谢李宏毅老师

本文链接:https://www.haomeiwen.com/subject/dphtwftx.html