先决条件:ML |线性回归
线性回归是一种监督型学习算法, 用于计算输入(X)和输出(Y)之间的线性关系。
普通线性回归涉及的步骤是:
培训阶段:计算以最小化成本。预测输出:对于给定的查询点,

从下图可以明显看出, 当X和Y之间存在非线性关系时, 该算法不能用于进行预测。在这种情况下, 将使用局部加权线性回归。

局部加权线性回归:
局部加权线性回归是一种非参数算法, 也就是说, 该模型不像常规线性回归那样学习固定的参数集。相当的参数

为每个查询点分别计算

。在计算时

, 对训练集中位于

比远离的点

.
修改后的成本函数为:

其中

是与训练点相关的非负"权重"

.
对于

位于更靠近查询点的位置

, 的价值

很大, 而

躺在远离

价值

是小。
典型的选择

是:

其中

称为带宽参数, 并控制

随距离而下降

显然, 如果

是小

接近1, 如果

大

接近0。
因此, 训练集点更靠近查询点

贡献更多的成本

比远离的点

.
例如 -
考虑一个查询点

= 5.0并让

和

是训练集中的两点

= 4.9并且

= 3.0。
使用公式

与

= 0.5:



因此, 权重随着指数之间的距离呈指数下降

和

增加, 因此预测的误差贡献也增加了

成本。
因此, 在计算时

, 我们更注重减少

对于更靠近查询点的点(具有更大的

)。

局部加权线性回归涉及的步骤为:
计算以最小化成本。预测输出:对于给定的查询点,
要记住的要点:
- 局部加权线性回归是一种监督学习算法。
- 它是一种非参数算法。
- 没有训练阶段。所有工作都在测试阶段/进行预测时完成。