1. 程式人生 > 其它 >最小二乘法——線性迴歸

最小二乘法——線性迴歸

技術標籤:演算法線性代數演算法c++

最小二乘法——線性迴歸

一、模型

y = k\cdot x+b

二、推理步驟

第一步:計算預測值與實際值之間的差異

e=y-(k\cdot x+b)

第二步:推廣到多點,為了考慮計算的簡便性,採用殘差平方和作為模型的評價函式

E=\sum (y_{i}-k\cdot x_{i}-b)^{^{2}}

第三步:當E取最小值時,表示預測值與實際值最接近。凸函式的最小值通常在導數等於0處取得,因此,可以轉換為:

\frac{dE}{db}=2*\sum (y_{i}-k\cdot x{_{i}}-b)(-1)

\frac{dE}{db}=-2*(n\bar{y}-nk\bar{x}-nb)

\frac{dE}{dk}=2*\sum (y_{i}-k\cdot x{_{i}}-b)(-x{_{i}})

\frac{dE}{dk}=-2*\sum (y_{i}x{_{i}}-kx_{i}^{2}-b{x_{i}})

\frac{dE}{db}=0\frac{dE}{dk}=0

\bar{y}-k\bar{x}=b 公式①

\sum y_{i}x{_{i}}-nk\sum x_{i}^{2}-nb\bar{x}=0 公式②

第四步:將公式①代入公式②得

k =\frac{\sum x_{i}y_{i}-n\bar{x}\bar{y}}{\sum x_{i}^{2}-n\bar{x}^{2}}

b=\bar{y}-k\bar{x}

三、C++實現

#include<Eigen\eigen>
#include<vector>
using namespace std;

/*Eigen*/
using Point2F = Eigen::Vector2f;
using Points2F = std::vector<Eigen::Vector2f>;
using Point3F = Eigen::Vector3f;
using Points3F = std::vector<Eigen::Vector3f>;
using Point2D = Eigen::Vector2d;
using Points2D = std::vector<Eigen::Vector2d>;
using Point3D = Eigen::Vector3d;
using Points3D = std::vector<Eigen::Vector3d>;

/*
Autor:Mosquitor
Date:2021-1-14
Function:2-D linear fit

k = (D0-D1)/(D2 - D3)
D0 = sum(x*y)
D1 = sum(x_mean*y_mean)
D2 = sum(x*x)
D3 = sum(x_mean*x_mean)

ParaInput[0]:2-D data,each row include(x,y)
ParaInput[1]:output result k;
ParaInput[2]:output result b;
*/
bool mosRM::linearFit2D(Points2D& inputData, double& k, double& b)
{
	if (inputData.size() < 2)
		return false;
	double D0(0.0), D1(0.0), D2(0.0), D3(0.0);
	double x_mean(0.0), y_mean(0.0);
	for (auto pt : inputData)
	{
		x_mean += pt[0];
		y_mean += pt[1];
		D0 += pt[0] * pt[1];
		D2 += pt[0] * pt[0];
	}
	x_mean /= inputData.size();
	D1 = x_mean*y_mean;
	D3 = x_mean*x_mean*inputData.size();
	y_mean /= inputData.size();
	if (D2 == D3)
	{
		k = 1;
		b = 0;
	}
	k = (D0 - D1) / (D2 - D3);
	b = y_mean - k*x_mean;
	return true;
}