首页 > 其他 > 详细

机器学习课程-第 8 周-降维(Dimensionality Reduction)—主成分分析(PCA)

时间:2019-02-09 22:01:47      阅读:201      评论:0      收藏:0      [点我收藏+]

1. 动机一:数据压缩

第二种类型的 无监督学习问题,称为 降维。有几个不同的的原因使你可能想要做降维。一是数据压缩,数据压缩不仅允许我们压缩数据,因而使用较少的计算机内存或磁盘空间,但它也让我们加快我们的学习算法。

但首先,让我们谈论 降维是什么。作为一种生动的例子,我们收集的数据集,有许多,许多特征,我绘制两个在这里。

将数据从二维降一维:

技术分享图片

技术分享图片

技术分享图片

将数据从三维降至二维: 这个例子中我们要将一个三维的特征向量降至一个二维的特征向量。过程是与上面类似的,我们将三维向量投射到一个二维的平面上,强迫使得所有的数据都在同一个平面上,降至二维的特征向量。

技术分享图片

这样的处理过程可以被用于把任何维度的数据降到任何想要的维度,例如将1000维的特征降至100维。

2. 动机二:数据可视化

 

 

 

 

 

 

 

 

 

技术分享图片

机器学习课程-第 8 周-降维(Dimensionality Reduction)—主成分分析(PCA)

原文:https://www.cnblogs.com/douzujun/p/10358089.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!