平方损失函数(最小二乘法, Ordinary Least Squares )【图文详解】

今天爱分享给大家带来平方损失函数(最小二乘法, Ordinary Least Squares )【图文详解】,希望能够帮助到大家。
最小二乘法是线性回归的一种,OLS将问题转化成了一个凸优化问题。在线性回归中,它假设样本和噪声都服从高斯分布(为什么假设成高斯分布呢?其实这里隐藏了一个小知识点,就是中心极限定理,可以参考:https://blog.csdn.net/v_july_v/article/details/8308762),最后通过极大似然估计(MLE)可以推导出最小二乘式子。最小二乘的基本原则是:最优拟合直线应该是使各点到回归直线的距离和最小的直线,即平方和最小。

换言之,OLS是基于距离的,而这个距离就是我们用的最多的欧几里得距离。为什么它会选择使用欧式距离作为误差度量呢(即Mean squared error, MSE),主要有以下几个原因:

简单,计算方便;
欧氏距离是一种很好的相似性度量标准;
在不同的表示域变换后特征性质不变。

平方损失(Square loss)的标准形式如下:

平方损失函数(最小二乘法, Ordinary Least Squares )【图文详解】插图

当样本个数为n时,此时的损失函数变为:

平方损失函数(最小二乘法, Ordinary Least Squares )【图文详解】插图(1)

Y-f(X)表示的是残差,整个式子表示的是残差的平方和,而我们的目的就是最小化这个目标函数值(注:该式子未加入正则项),也就是最小化残差的平方和(residual sum of squares,RSS)。

而在实际应用中,通常会使用均方差(MSE)作为一项衡量指标,公式如下:

平方损失函数(最小二乘法, Ordinary Least Squares )【图文详解】插图(2)

上面提到了线性回归,这里额外补充一句,我们通常说的线性有两种情况,一种是因变量y是自变量x的线性函数,一种是因变量y是参数αα的线性函数。在机器学习中,通常指的都是后一种情况。

人已赞赏
Python

log对数损失函数(逻辑回归)是什么【图文详解】

2020-12-24 15:22:21

Python

指数损失函数(Adaboost)【图文详解】

2020-12-24 15:34:58