多项式线性回归模型(多元线性回归模型的)

http://www.itjxue.com  2023-01-25 13:36  来源:未知  点击次数: 

多元线性回归模型的t检验如何查表

对多元线性回归模型的各种检验方法对于形如(1)的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、 对单个总体参数的假设检验:t检验在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设?:?,做出具有统计意义(即带有一定的置信度)的检验,其中?为某个给定的已知数。特别是,当?=0时,称为参数的(狭义意义上的)显著性检验。如果拒绝?,说明解释变量?对被解释变量?具有显著的线性影响,估计值?才敢使用;反之,说明解释变量?对被解释变量?不具有显著的线性影响,估计值?对我们就没有意义。具体检验方法如下:(1) 给定虚拟假设?:?;(2) 计算统计量 的数值;(3) 在给定的显著水平?下(?不能大于?即10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t(?)分布的临界值?;(4) 如果出现?的情况,检验结论为拒绝?;反之,无法拒绝?。?检验方法的关键是统计量必须服从已知的?分布函数。什么情况或条件下才会这样呢?这需要我们建立的模型满足如下的条件(或假定):(1) 随机抽样性。我们有一个含?次观测的随机样。这保证了误差?自身的随机性,即无自相关性,。(2) 条件期望值为0。给定解释变量的任何值,误差?的期望值为零。即有这也保证了误差?独立于解释变量,即模型中的解释变量是外生性的,也使得。(3) 不存在完全共线性。在样本因而在总体中,没有一个解释变量是常数,解释变量之间也不存在严格的线性关系。(4) 同方差性。。(5) 正态性。误差?满足。在以上5个前提下,才可以推导出:?由此可见,?检验方法所要求的条件是极为苛刻的。二、 对参数的一个线性组合的假设的检验需要检验的虚拟假设为?:?。比如?无法直接检验。设立新参数。原虚拟假设等价于?:?。将代入原模型后得出新模型:(2)在模型(2)中再利用?检验方法检验虚拟假设?:?。我们甚至还可以检验这样一个更一般的假设t统计量为三、 对参数多个线性约束的假设检验:F检验需要检验的虚拟假设为?:。该假设对模型(1)施加了?个排除性约束。模型(1)在该约束下转变为如下的新模型:

(3)模型(1)称为不受约束(ur)的模型,而模型(3)称为受约束(r)的模型。模型(3)也称为模型(1)的嵌套模型,或子模型。分别用OLS方法估计模型(1)和(2)后,可以计算出如下的统计量:关键在于,不需要满足t检验所需要的假定(3),统计量F就满足:。利用已知的F分布函数,我们就可以拒绝或接受虚拟假设?:了。所以,一般来讲,F检验比t检验更先使用,用的更普遍,可信度更高。利用关系式,,F统计量还可以写成:四、 对回归模型整体显著性的检验:F检验需要检验的虚拟假设为?:。相当于前一个检验问题的特例,?。嵌套模型变为。?,,?。F统计量变为:五、 检验一般的线性约束需要检验的虚拟假设比如为?:。受约束模型变为:再变形为:。F统计量只可用:其中,。六、 检验两个数据集的回归参数是否相等:皱(至庄)检验虚拟假定是总体回归系数的真值相等。步骤如下:(1) 基于两组样本数据,进行相同设定的回归,将二者的RSS分别记为?和?。 (2) 将两组样本数据合并,基于合并的样本数据,进行相同设定的回归,将回归的RSS记为?。(3) 计算下面的F统计量:?(4) 如果?,拒绝原假定。七、 非正态假定下多个线性约束的大样本假设检验:LM(拉格郎日乘数)检验F检验方法需要模型(1)中的?满足正态性假定。在不满足正态性假定时,在大样本条件下,可以使用LM统计量。虚拟假设依然是?:。LM统计量仅要求对受约束模型的估计。具体步骤如下:(ⅰ)将?对施加限制后的解释变量进行回归,并保留残差?。即我们要进行了如下的回归估计(ⅱ)将?对所有解释变量进行辅助回归,即进行如下回归估计并得到R-平方,记为?。(ⅲ)计算统计量。(ⅳ)将?与?分布中适当的临界值?比较。如果?,就拒绝虚拟假设?;否则,就不能拒绝虚拟假设?。八、 对模型函数形式误设问题的一般检验:RESET如果一个多元回归模型没有正确地解释被解释变量与所观察到的解释变量之间的关系,那它就存在函数形式误设的问题。误设可以表现为两种形式:模型中遗漏了对被解释变量有系统性影响的解释变量;错误地设定了一个模型的函数形式。在侦察一般的函数形式误设方面,拉姆齐(Ramsey,1969)的回归设定误差检验(regression specilfication error test , RESET)是一种常用的方法。RESET背后的思想相当简单。如果原模型(1)满足经典假定(3),那么在模型(1)中添加解释变量的非线性关系应该是不显著的。尽管这样做通常能侦察出函数形式误设,但如果原模型中有许多解释变量,它又有使用掉大量自由度的缺陷。另外,非线性关系的形式也是多种多样的。RESET则是在模型(1)中添加模型(1)的OLS拟合值的多项式,以侦察函数形式误设的一般形式。

为了实施RESET,我们必须决定在一个扩大的回归模型中包括多少个拟合值的函数。虽然对这个问题没有正确的答案,但在大多数应用研究中,都表明平方项和三次项很有用。令?表示从模型(1)所得到的OLS估计值。考虑扩大的模型(4)这个模型看起来有些奇怪,因为原估计的拟合值的函数现在却出作为解释变量出现。实际上,我们对模型(4)的参数估计并不感兴趣,我们只是利用这个模型来检验模型(1)是否遗漏掉了重要的非线性关系。记住,?和?都只是?的非线性函数。对模型(4),我们检验虚拟假设。这时,模型(4)是无约束模型,模型(1)是受约束模型。计算F统计量。需要查?分布表。拒绝?,模型(1)存在误设,否则,不存在误设。九、利用非嵌套模型检验函数形式误设寻求对函数形式误设的其他类型(比如,试图决定某一解释变量究竟应以水平值形式还是对数形式出现)作出检验,需要离开经典假设检验的辖域。有可能要相对模型(5)检验模型(1),或者把两个模型反过来。然而,它们是非嵌套的,所以我们不能仅使用标准的F检验。有两种不同的方法。一种方法由Mizon and Richard (1986)提出,构造一个综合模型,将每个模型作为一个特殊情形而包含其中,然后检验导致每个模型的约束。对于模型(1)和模型(5)而言,综合模型就是(6)可以先检验,作为对模型(1)的检验。也可以通过对检验,作为对模型(5)的检验。另一种方法由Davison and MacKinnon (1981)提出。认为,如果模型(1)是正确的,那么从模型(5)得到的拟合值在模型(1)中应该是不显著的。因此,为了检验模型(1)的正确性,首先用OLS估计模型(5)以得到拟合值,并记为?。在新模型(7)中计算?的t统计量,利用t检验拒绝或接受假定?。显著的t统计量就是拒绝模型(1)的证据。类似的,为了检验模型(5)的正确性,首先用OLS估计模型(1)以得到拟合值,并记为?。在新模型

(8)中计算?的t统计量,利用t检验拒绝或接受假定?。以上两种检验方法可以用于检验任意两个具有相同的被解释变量的非嵌套模型。非嵌套检验存在一些问题。首先,不一定会出现一个明显好的模型。两个模型可能都被拒绝,也可能没有一个被拒绝。在后一种情形中,我们可以使用调整的R-平方进行选择。如果两个模型都被拒绝,则有更多的工作要做。不过,重要的是知道使用这种或那种函数形式的后果,如果关键性解释变量对被解释变量的影响没有多大差异,那么使用那个模型实际上并不要紧。第二个问题是,比如说使用Davison and MacKinnon 检验拒绝了模型(5),这并不意味着模型(1)就是正确的模型。模型(5)可能会因为多种误设的函数形式而被拒绝。一个更为可能的问题是,在解释变量不同的模型之间进行比较时,如何实施非嵌套检验。一个典型的情况是,一个解释变量是?,一个解释变量是?。使用调整的R-平方进行比较,需要小心从事。

5.9

百度文库VIP限时优惠现在开通,立享6亿+VIP内容

立即获取

多元线性回归模型的各种检验方法

对多元线性回归模型的各种检验方法

对于形如

(1)

的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:

一、 对单个总体参数的假设检验:t检验

在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设?:?,做出具有统计意义(即带有一定的置信度)的检验,其中?为某个给定的已知数。特别是,当?=0时,称为参数的(狭义意义上的)显著性检验。如果拒绝?,说明解释变量?对被解释变量?具有显著的线性影响,估计值?才敢使用;反之,说明解释变量?对被解释变量?不具有显著的线性影响,估计值?对我们就没有意义。具体检验方法如下:

第 1 页

(1) 给定虚拟假设?:?;

(2) 计算统计量 的数值;

(3) 在给定的显著水平?下(?不能大于?即

10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t(?)分布的临界值?;

线性回归模型的原理

线性回归模型的原理如下:

线性回归模型是用一条曲线拟合一个或多个自变量x与因变量y之间的关系。若曲线是一条直线,则为一元线性回归;若是超平面,则是多元线性回归;否则是非线性回归,常见的非线性回归包括多项式回归、逻辑回归。通过样本学习映射关系f:x-y,得到的预测结果y是连续值变量。

线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w'x+e,e为误差服从均值为0的正态分布。

回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。

在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。

只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。(这反过来又应当由多个相关的因变量预测的多元线性回归区别,而不是一个单一的标量变量。)

在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数。不太一般的情况,线性回归模型可以是一个中位数或一些其他的给定X的条件下y的条件分布的分位数作为X的线性函数表示。

可以线性化的模型有哪几类,如何线性化

可以线性化的模型有: 一元多项式回归模型;双曲线回归模型;对数曲线模型

一元线性回归模型:它是根据两个变量的成对数据,配合直线方程式,再根据自变量的变动值,来推算因变量的估计值。

曲线回归方程一般是以自变量的多项式表达因变量。方法是:根据数据的特点先进行某些变换(如对数变换、平方根变换等),如果变换后得到线性模型,则进行线性回归; 如果变换后仍得不到线性模型,则可以用曲线拟合的方法对原始数据进行拟合,确定曲线回归方程。

对数线性模型的基本原理,与方差分析相关的,在多元方差分析中,以二元方差为例:每一个观测值y;=μ+A;的效果+B,的效果+(AB);交互作用+E;

(责任编辑:IT教学网)

更多

相关3DMAX教程文章

推荐3DMAX教程文章