开篇:润墨网以专业的文秘视角,为您筛选了一篇具有AR(p)误差的半参数回归模型的参数估计范文,如需获取更多写作素材,在线客服老师一对一协助。欢迎您的阅读与分享!
摘要: 近年来,半参数模型是处理回归问题的有力工具,进年来,已经成为当今回归分析的热点,引起了众多学者的关注。文章研究了具有ar(p)误差的半参数回归模型,首先对其误差的相关性进行了消除,然后将模型转变成为经典的半参数回归模型,运用惩罚最小二乘估计方法对模型参数进行了估计。
Abstract: In recent years, the research of the semi-parametric regression model which is a potentially tool for dealing with the regression has attracted considerable attention and becomes an important field in the regression analysis. This paper discusses the semi-parametric regression model with AR(p)errors, the problem of the autocorrelation is solved firstly, then the penalized least square estimation of the model is given.
关键词: 半参数回归;AR(p);惩罚最小二乘
Key words: semi-parametric regression;auto-regression;penalized least square
中图分类号:O212 文献标识码:A 文章编号:1006-4311(2012)20-0301-02
0 引言
半参数回归模型可以看作是参数回归模型和非参数回归模型的混合模型,是线性模型的推广。由于其适应数据变化的能力强,所以它是寻求变量之间关系的有力工具,近年来在经济学,医学和社会等领域的实际问题中有着广泛的应用。
①模型简介:
模型
y■=x■■β+g(t■)+μ■ i=1,…,n(1)
其中y■为影响变量,xi∈Rm为m维解释变量,g(ti)是模型的参数部分,它是R上的未知光滑函数,μ■是随机误差,若μ■满足Gauss-Markov假设。则模型(1)经典的半参数回归模型。
但是在实际问题中,一般模型(1)的误差项μ■很难同时满足Gauss-Markov的三个假设。若cov(μ■,μj)=0,i≠j不成立,则说明误差项存在着异方差性。
模型
y■=X■■β+g(t■)+μ■ i<p时μ■=φ■μ■+φ■μ■+…+φ■μ■+ε■ i>p时(2)
其中X■■=(Xi1,…Xin) β=(β1,…βn)T,ε■满足Gauss-Markov假设,即E(ε■)=0 Var(ε■)σ2,Cov(ε■,εj)=0,(i≠j)
则模型称为具有AR(p)误差的半参数回归模型。
②半参数回归模型的研究现状:
由于半参数回归模型既充分利用了数据的信息,又将一些信息不充分的变量纳入了模型,因而,基于半参数回归模型所得到的推断结果一般比参数和非参数模型更加优良,所以对这种模型有许多方面的研究,Severuni对异方差半参数回归模型参数与非参数部分估计作了研究[1],Chen研究了半参数广义线性模型的渐近有效估计[2],王启华等研究了随机删除的半参数回归模型[3],曾林蕊等研究了半参数广义线性模型的统计诊断和影响分析[4],胡宏昌研究了误差为AR(1)情形的半参数回归模型的极大似然估计的存在性问题[5],但是对于误差为AR(p)情形的半参数模型还未发现进行相关的研究,文章就对此模型进行了相关性消除,然后对其进行了惩罚最小二乘估计。
1 模型误差项相关性的消除
对于模型(2)
yi-φ1yi-1-……-φpyi-p
=X■■β+g(t■)+μ■-φ■X■■β+g(t■)+μ■-…-
φ■X■■β+g(t■)+μ■
=X■■-φ■X■■-…-φ■X■■β+g(t■)-φ■g(t■)+μ■-φ■μ■-…-φ■μ■
=■X■-φ■X■-…-φ■X■β■+
g(t■)-φ■g(t■)-…-φ■g(t■)+ε■
若令■=y■,■=X■,■(t■)=g(t■) i=1,2,…p■=y■-φ■y■-…-φ■y■■=X■-φ■X■-…φ■X■■(t■)=g(t■)-φ■g(t■)-…-φ■g(t■)
则(1)式可化为:
■=■β+■+ε■ i=1,…,n(3)
由于ε■,…,εn是满足Gauss-Markov假设,故(3)式满足经典的半参数回归模型的假设,下面我们通过研究模型(3)来间接研究模型(2)。
2 模型的惩罚最小二乘估计
为下面计算方便设:
M=■
则有■=MY,■=MX,■=Mg,ε=Mμ
定理:模型(3)的惩罚最小二乘估计为:
■=■(I-N)■■■(I-N)■
■=M■N■-■■
证明:对于模型(3),求β,g的光滑样条估计,即求■和■使得光滑样条函数取得最大值。
PL(β,■)=Ln(β,■)-■(4)
其中对数似然函数
Ln(β,■)=-■log(2πσ■)-■■■■-■■β-■(t■)■
令
Sβ,■=Y-Xβ-g■+a■■K■
=Y-Xβ-g■+a■■M■KMg