日期 | 统计学习方法 | 西瓜书 | 百面机器学习 | 深度学习 | 经典论文和深度学习算法复现 | 其他事情 |
---|---|---|---|---|---|---|
2020/01/11 | ||||||
2020/01/10 | ||||||
2020/01/09 | ||||||
2020/01/08 | ||||||
2020/01/07 | ||||||
2020/01/06 | ||||||
2020/01/05 | ||||||
2020/01/04 | ||||||
2020/01/03 | ||||||
2020/01/02 | 聚类 | |||||
2020/01/01 | 动手学3.1~3.3 |
2、自然语言和推荐系统
2.1 数学之美(进行中)
2.2 统计自然语言处理
2.3 这就是推荐引擎系统
2.4 谷歌搜索引擎
2.5 推荐系统汇总资料:https://www.cnblogs.com/DjangoBlog/p/11474477.html
3、深度学习基础内容
3.1 花书(2019/11/19重新开始)
3.2 花书配套的实战书
3.3 经典论文
3.4 李弘毅深度学习课程(暂停)
3.5 https://blog.csdn.net/abc13526222160/article/details/84099863
4、Java实现Lightgbm、线上代码梳理、其他实时算法(10/8~11/31)
5、机器学习内容查全补漏
5.1 Leetcode(进行中,重点)
5.2 百面机器学习(暂停)
5.3 刘建平博客(12月2号完成,剩余强化学习章节19/135)
5.4 https://www.cnblogs.com/DjangoBlog/p/9131224.html 博客
5.5 机器学习AI算法工程
5.6 遗留问题:
RNN在BP过程中梯度消失的原因,链式求导过程
end-to-end-learning
Batch Normalization
AutoEncoder
Denoising AutoEncoder:在训练数据中加入噪声,需学习去除这种噪声
Sparse Coding 系数编码
FFM 和 DeepFFM的代码
GBDT + LR代码
不同分布函数参数的估计(有偏和无偏估计)
变分推断
估计量的一致性
线性回归 最大似然
频率派和贝叶斯派在参数估计上的差异
贝叶斯参数优化
贝叶斯线性回归
正则化与MAP贝叶斯推断(L2相当于权重是高斯先验的MAP贝叶斯推断;L1与通过AMP贝叶斯推断最大化的对数先验项是等价的)
基于RBM的推荐系统(流行于2016年左右)
系统的看一遍别人写的推荐系统都使用了哪些具体算法以及推荐系统的发展现状
用PMML实现机器学习模型的跨平台上线:https://www.cnblogs.com/pinard/p/9220199.html(等有一定的java基础后再去实践)
tensorflow机器学习模型的跨平台上线:https://www.cnblogs.com/pinard/p/9251296.html (等有一定的java基础后再去实践)
小小挖掘机:https://cloud.tencent.com/developer/column/2381
算法channel:https://cloud.tencent.com/developer/user/1478933
迹函数
贝叶斯的条件概率估计:频率主义学派、贝叶斯学派
L2和L1正则化的异同
胶囊神经网络
6、11/1~12/31数学基础
6.1 高等数学
6.2 离散数学
6.3 概率论与数理统计:陈希儒
6.4 抽象数学
6.5 矩阵论
6.6 运筹学
6.7 线性代数(完成)
6.8 统计学
6.9 图论
6.10 矩阵分析与应用: 张贤达
6.11 信息论基础
6.12 凸优化: 鲍信
7、11/1~12/31计算机类课程
7.1 数据结构
7.2 Java
7.3 虽然用了挺长事件的Python,但是并未完整的学过某种编程算法,代码写起来还是比较吃力,坚持写一段时间的代码,多看看多写写
8、是时候准备开始健身了,保持一个良好的形态(预计2020年1月1号开始)
动手学深度学习:计算机科学是动手的学科,没有足够的动手能力难以取得很好的成果。如果算法能力应对一台及其的内存大小,动手能力则是及其的CPU的频率。内存决定了能跑多么复杂的程序,CPU则决定了你能多块的完成它,两者都不能缺。
原文:https://www.cnblogs.com/laojifuli/p/12131630.html