b站视频地址:李宏毅<机器学习>2019国语
Hand crafted rules
Unsupervised Learning 无监督学习
梯度Gradient:loss function对每个参数偏导排成的向量
梯度下降实现的挑战
step1:种类特征那个输入优化
step2:更多参数,更多输入
step3:Regularization正则化
更多特征,会造成某些特征权重w过大,导致过拟合,于此引入正则化 - 正则化影响loss function平滑度,所以与方差/过拟合相关
Regularization的一种简单方式就是在Loss Function中加入正则项λΣ(wi)2 - 使w更小,因为越小的w曲线越平滑,即对变化越不敏感
不敏感让loss function受高权重和噪音的影响小,降低过拟合风险
超参数正则系数λ也不能过大 - 导致bias变大,欠拟合,过于平滑
Error = Variance + Bias
Bias = 真实值与输出期望之间误差 - 模型越简单,bias越高
当Bias=0,即期望=真实值时,就是unbias无偏估计
Variance = 模型输出值与输出期望之间的误差 - 模型越复杂,variance越高
Variance大,即模型过拟合Overfitting,解决办法一般是增加训练数据量或者Regularization
方差 - 数据分布离散程度
未完待续
原文:https://www.cnblogs.com/ymjun/p/11762035.html