线性回归

在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。

只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。

线性回归实例说明

y = f(x)
x={0, 1, 2, 3, 4, 5}, y={0, 20, 60, 68, 77, 110}
如果要以一个最简单的方程式来近似这组数据,则用一阶的线性方程式最为适合
那么什么样的方程最合适呢?
y=f(x)=20x?
y=f(x)=21x?
......
如此任意的假设一个线性方程式是无根据的,不同的人设定的线性方程式可能是不同的,因此,需要有比较精确方式决定理想的线性方程式。可以要求误差平方的总和为最小,做为决定理想的线性方程式的准则,这样的方法就称为最小平方误差(least squares error)或是线性回归。

术语说明

自变量和因变量:
在y=f(x)中,x是自变量,y是因变量

使用Python中的numpy实现线性回归

>>> import numpy
>>> numpy.polyfit([1,2,3],[2,4,6],1)
array([2.00000000e+00, 2.41660629e-15])