本内容按照吴恩达公开课《Machine Learning》的 Lecture Slides 进行分类,每一个H1标题对应一个Lecture Slide,每一个H2标题对应Lecture Slide中的一个小章节。
本内容是课程的简化总结,适合已经了解机器学习基本概念的人进行回顾以及查漏补缺。
# 4 多元线性回归
# 4.1 多个自变量
在多元线性回归中有不止一个自变量:
在这里,可以认为有自变量
# 4.2 多元的梯度下降
同一元情况下的
# 4.3 实操技巧1:特征归一化(Feature Scaling)
使用公式
# 4.4 实操技巧2:调整学习率
通过监控训练过程中损失函数
# 4.5 多项式回归
某些自变量可能与因变量直接不是线性关系,可以考虑使用自变量的平方项或者立方项等当作x,例如:
# 4.6 标准方程
在均方误差损失函数下,通过二次方程求根公式,
以下是梯度下降法和标准方程的对比:
梯度下降 | 标准方程 |
---|---|
需要选择学习率 | 不需要选择学习率 |
需要迭代很多次 | 不需要迭代 |
特征维度 | 需要计算 |
当特征维度 |
# 4.7 标准方程中的 不可逆
标准方程中的
- 特征冗余,当两个特征线性相关时
- 特征数量过多(m≤n),此时可以删除一些特征,或者使用正则化。
*在Octave/Matlab中,使用pinv函数可以在矩阵不可逆时依然得到逆矩阵。