1-1/1.2,基本上都是一些基础知识,机器学习的背景,发展,概念,用途
1-3,监督学习:
1-4,无监督学习:
课程补充:
因为这个课程是较早的视频,当时老吴推荐的是matlab和Octave,现在主要使用python语法系掉其他库,但是发现课程概念比后来新课的更加全,所以用来学习概念,很适合,
在鸡尾酒派对分类分割声音的案例里,介绍了svd函数,有点迷惑,查了一些资料填坑(凡是高亮非红色字体都带链接,不懂就click)
s = svd(X),返回矩阵的某一奇异向量
[U,S,V] = svd(X),其中U和V代表二个相互正交矩阵(当为实数矩阵的时候),而S代表一对角矩阵(奇异值)。 原矩阵A不必为正方矩阵。
[U,S,V] = svd(X,0),则它等价于SvD(X,0).对于m<n,只计算V的前m列,S为m*m
[U,S,V] = svd(X,‘econ‘),‘econ’economic size,相当于把多余的部分去除掉了。如果X是m>=n的(m行n列),则它等价于SvD(X,0).对于m<n,只计算V的前m列,S为m乘m.
预备知识:
各种矩阵认识复习:链接
正交矩阵:除基本定义外,与降维有关,可用于压缩,变换
酉矩阵:共轭转置(解)== 逆 (求解),https://blog.csdn.net/zhaoyue007101/article/details/7949733
svd—详解:
https://wenku.baidu.com/view/3ec0a4ddaeaad1f346933f42.html(除svd,含evd的复习内容)
(含几何意义详解,加深)
https://blog.csdn.net/zhongkejingwang/article/details/43053513
https://blog.csdn.net/jinshengtao/article/details/18448355
svd是一类矩阵分解!!!矩阵分解是指根据一定的原理用某种算法将一个矩阵分解成若干个矩阵的乘积。常见的矩阵分解有可逆方阵的三角(LU)分解、
任意满秩矩阵的正交三角(QR)分解、对称正定矩阵的Cholesky分解,以及任意方阵的Schur分解、Hessenberg分解、EVD分解(特征值)、SVD分解(奇异值)、GMD分解等。
http://blog.sina.cn/dpool/blog/s/blog_12f4079380102xk6j.html?vt=4 (链接为各种矩阵分解汇总)
最小二乘法,最小平方误差,用来求线性回归解
数据压缩,用来降维,压缩数据
用时约5h,80%花在后面学习svd以及svd与鸡尾酒算法/机器学习上面,顺便复习了已经学过的evd和一些矩阵知识,
初步了解了其他一些可能用到的分解,初步认识到”分解“在机器学习中的一些用途,
找到了一些可靠的资源和宝藏博主
(Andyjee) 一些重要的数学基础知识(来源) 陈靖_ 特征值分解、奇异值分解、PCA概念整理_网络_Where there is life, there is hope-CSDN
https://wenku.baidu.com/view/e600ac060740be1e650e9a03?showCashierFromZhidao=1&qid=104418447&fr=step_zhidao
背景知识+监督和无监督学习辨析+预备知识(1-1—1-4/用时4h)
原文:https://www.cnblogs.com/KID-yln/p/12515077.html