2019-2020学年人教A版必修三 2.3.2 两个变量的线性相关 第2课时 教案
2019-2020学年人教A版必修三   2.3.2 两个变量的线性相关 第2课时  教案第3页



上面这些方法虽然有一定的道理,但总让人感到可靠性不强.

实际上,求回归方程的关键是如何用数学的方法来刻画"从整体上看,各点与此直线的距离最小".人们经过长期的实践与研究,已经得出了计算回归方程的斜率与截距的一般公式

其中,b是回归方程的斜率,a是截距.

推导公式①的计算比较复杂,这里不作推导.但是,我们可以解释一下得出它的原理.

假设我们已经得到两个具有线性相关关系的变量的一组数据(x1,y1),(x2,y2),...,(xn,yn),

且所求回归方程是=bx+a,

其中a、b是待定参数.当变量x取xi(i=1,2,...,n)时可以得到=bxi+a(i=1,2,...,n),

它与实际收集到的yi之间的偏差是yi-=yi-(bxi+a)(i=1,2,...,n).

这样,用这n个偏差的和来刻画"各点与此直线的整体偏差"是比较合适的.由于(yi-)可正可负,为了避免相互抵消,可以考虑用来代替,但由于它含有绝对值,运算不太方便,所以改用Q=(y1-bx1-a)2+(y2-bx2-a)2+...+(yn-bxn-a)2 ②

来刻画n个点与回归直线在整体上的偏差.

这样,问题就归结为:当a,b取什么值时Q最小,即总体偏差最小.经过数学上求最小值的运算,a,b的值由公式①给出.

通过求②式的最小值而得出回归直线的方法,即求回归直线,使得样本数据的点到它的距离的平方和最小,这一方法叫做最小二乘法(method of least square).