总离差平方和=回归平方和+残差平方和及证明
线性回归是一种常用的统计分析方法,用于建立自变量与因变量之间的关系模型。在线性回归中,我们希望找到一个最佳拟合直线,使得该直线与观测数据之间的误差最小化。为了衡量误差的大小,我们引入了总离差平方和、回归平方和和残差平方和这三个概念。
首先,我们来介绍总离差平方和(Total Sum of Squares,简称TSS)。总离差平方和表示因变量(或响应变量)在整个样本中的变异程度。它的计算公式为:
TSS = Σ(yᵢ - ȳ)²
其中,yᵢ表示第i个观测值,ȳ表示所有观测值的均值。TSS可以看作是真实值与均值之间的差异的总和。
接下来,我们介绍回归平方和(Regression Sum of Squares,简称RSS)。回归平方和表示由线性回归模型所解释的因变量的变异程度。它的计算公式为:
RSS = Σ(ŷᵢ - ȳ)²
其中,ŷᵢ表示第i个观测值的预测值,ȳ表示所有观测值的均值。RSS可以看作是预测值与均值之间的差异的总和。
最后,我们介绍残差平方和(Residual Sum of Squares,简称ESS)。残差平方和表示线性回归模型无法解释的残差的变异程度。它的计算公式为:
ESS = Σ(yᵢ - ŷᵢ)²
其中,yᵢ表示第i个观测值,ŷᵢ表示第i个观测值的预测值。ESS可以看作是真实值与预测值之间的差异的总和。
接下来,我们将证明TSS等于RSS加上ESS。
首先,根据TSS的定义,我们有:
TSS = Σ(yᵢ - ȳ)²
将yᵢ分解为ŷᵢ加上残差eᵢ:
yᵢ &
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
