机器学习理论基础学习3.1--- Linear classification 线性分类之感知机PLA(Percetron Learning Algorithm)
机器学习理论基础学习3.2--- Linear classification 线性分类之线性判别分析(LDA)
机器学习理论基础学习3.3--- Linear classification 线性分类之logistic regression(基于经验风险最小化)
机器学习理论基础学习3.4--- Linear classification 线性分类之Gaussian Discriminant Analysis高斯判别模型
机器学习理论基础学习3.5--- Linear classification 线性分类之朴素贝叶斯
机器学习理论基础学习14.1---线性动态系统-卡曼滤波 Kalman filter
机器学习理论基础学习14.2---线性动态系统-粒子滤波 particle filter
机器学习理论基础学习17---贝叶斯线性回归(Bayesian Linear Regression)
机器学习理论基础学习19---受限玻尔兹曼机(Restricted Boltzmann Machine)
弱分类器的进化--Bagging、随机森林、Boosting
激活函数Sigmoid、Tanh、ReLu、softplus、softmax
评价指标的局限性、ROC曲线、余弦距离、A/B测试、模型评估的方法、超参数调优、过拟合与欠拟合
Hinge Loss、交叉熵损失、平方损失、指数损失、对数损失、0-1损失、绝对值损失
连续数值变量的一些特征工程方法:二值化、多项式、数据倾斜处理
梯度下降法(BGD、SGD)、牛顿法、拟牛顿法(DFP、BFGS)、共轭梯度法
word2vec原理(一) CBOW+Skip-Gram模型基础
word2vec原理(二) 基于Hierarchical Softmax的模型
word2vec原理(三) 基于Negative Sampling的模型
改善深层神经网络_优化算法_mini-batch梯度下降、指数加权平均、动量梯度下降、RMSprop、Adam优化、学习率衰减
训练/验证/测试集设置;偏差/方差;high bias/variance;正则化;为什么正则化可以减小过拟合
原文:https://www.cnblogs.com/ceo-python/p/11610569.html