导读:本文包含了高维线性模型论文开题报告文献综述及选题提纲参考文献,主要关键词:高维线性模型,异常值检测,经验似然
高维线性模型论文文献综述
黄星寿,赵培信[1](2019)在《高维线性均值漂移模型的异常值检测》一文中研究指出文章结合经验似然统计推断技术,对带有均值漂移的高维线性模型,给出了一个基于经验似然的模型异常值检测方法,该方法允许模型参数的维数随样本量的增加而趋于无穷,数据模拟表明所提出的异常值检测方法是行之有效的。(本文来源于《统计与决策》期刊2019年14期)
吴登锋[2](2019)在《ADMM算法在高维部分线性测量误差模型推断中的应用》一文中研究指出本文主要研究ADMM算法在高维部分线性测量误差模型参数估计和变量选择中的应用.不同于经典的部分线性模型.该模型中的线性部分预测变量不能够被直接观测得到.但可观测到带有测量误差的数据.本文我们考虑测量误差的协方差已知的情况,更一般的情况是测量误差的协方差未知.这种情况,可以用观测到的数据估计出测量误差的协方差.针对部分线性模型,一般的处理方法是先估计非线性部分,然后利用参数估计方法估计线性部分.我们利用ADMM算法求出估计协方差矩阵的最近邻矩阵,并基于该矩阵进行参数估计和变量选择.本文证明了由此方法所得的惩罚估计量在正则条件下,估计参数的误差边界和预测误差满足一定条件,同时估计参数满足符号相合性.本文主要由五个部分构成:第一部分介绍了部分线性模型的提出背景,常规的变量选择方法及关于测量误差模型的当前研究成果和文中主要解决的问题:第二部分给出了高维部分线性测量误差模型自适应Lasso估计量和算法实现过程:第叁部分给出了模型系数估计和变量选择的理论性质:第四部分数值模拟本文提出的方法在小样本下的表现:第五部分给出了定理的详细证明.(本文来源于《郑州大学》期刊2019-04-01)
陈夏,崔艳[3](2019)在《高维广义线性模型的拟似然自适应Lasso估计》一文中研究指出利用惩罚拟似然方法,讨论高维广义线性模型的拟似然自适应Lasso估计。该方法能同时进行变量选择和参数估计。在适当的条件下,证明了所得估计的相合性和Oracle性质,并利用数据模拟和实例分析说明了所提方法的优良性质。(本文来源于《陕西师范大学学报(自然科学版)》期刊2019年02期)
闫莉,陈夏[4](2018)在《高维广义线性模型的惩罚拟似然SCAD估计》一文中研究指出基于光滑切片绝对偏差(smoothly clipped absolute deviation,SCAD)惩罚的拟似然方法,研究高维广义线性模型的变量选择和参数估计问题.所提方法只需要对响应变量期望函数和方差函数的正确设定.在适当的正则条件下,证明了拟似然SCAD估计具有相合性和Oracle性质.最后通过数据模拟和实例分析,验证了所提方法的有限样本性质.(本文来源于《武汉大学学报(理学版)》期刊2018年06期)
白璐,陈夏[5](2018)在《固定和自适应设计下高维广义线性模型的经验似然检验》一文中研究指出利用经验似然方法,讨论固定设计和自适应设计下高维广义线性模型中的参数检验问题。数值计算结果表明,所构造的经验对数似然比统计量渐近于标准卡方分布,具有较稳定的真实检验水平和功效。(本文来源于《陕西师范大学学报(自然科学版)》期刊2018年04期)
何军伟,陈夏[6](2018)在《高维半参数变系数部分线性测量误差模型的经验似然校正》一文中研究指出针对含测量误差高维数据半参数变系数部分线性模型的经验似然校正问题,通过对对数经验似然比统计量统计性质的分析与计算,提出一种新的估计对数经验似然比统计量的期望和方差的方法,得到校正的对数经验似然比统计量的渐近分布,说明其渐近统计性质优于传统方法.并利用数值模拟证明了所提方法的优良性质.(本文来源于《纺织高校基础科学学报》期刊2018年02期)
严奇琪,王延新[7](2018)在《高维部分线性小波模型中的变量选择》一文中研究指出通过研究高维部分线性模型中的变量选择,并结合小波方法和SCAD罚估计,提出了双罚估计方法,同时进行了变量选择和参数估计。模拟结果和实际数据分析表明,该方法在非参函数为非光滑函数时优于传统方法。(本文来源于《宁波工程学院学报》期刊2018年02期)
余婉露[8](2018)在《k-class估计在高维线性模型的推广》一文中研究指出在实际问题的研究中我们往往感兴趣一些变量对另一些变量的影响。当解释变量外生时,利用回归分析中的普通最小二乘(OLS)估计就可以给出比较系统全面的推断。但在大多数实际问题中,解释变量往往是内生的,此时工具变量(Ⅳ)估计比OLS估计有着更好的性质。经典的k-class估计是一类型的估计方法,是关于k的函数,具有一般性。例如,OLS估计、二阶段最小二乘(2SLS)估计、有限信息极大似然(LIML)估计等一些我们熟悉的估计方法都是k-class估计的特例。所以,当k-class估计k取值不同时,估计效果也不同,当然也具有不同的性质和预测性。高维数据推动了统计学的发展,并且高维线性模型的变量选择方法在实际中存在着广泛的应用。当结构方程中包含着许多不相关变量或者是内生性变量时,我们往往希望选出其中一小部分对响应值最有效的变量。在处理变量选择问题中,惩罚因子法是当前比较受欢迎的方法。惩罚因子法不仅可以对参数进行估计,还可以将不重要的系数压缩为0,挑选出重要的变量。现有的文献都只是介绍将k-class估计的特例推广到高维——结合变量选择方法将OLS估计、2SLS估计、LIML估计等估计推广到高维线性模型中去。本文提出将自适应套索估计量(Adaptive LASSO)方法和一般化的k-class估计相结合进行变量选择和系数估计,从而提高模型的解释能力和估计精度,并且从理论上证明带有Adaptive LASSO惩罚项的k-class估计具有神谕(Oracle)性质。在小样本高维线性模型中,带Adaptive LASSO惩罚项的k-class估计将会根据模型的不同,可适性地选择k值进行估计,使得模型的解释能力和预测效果更佳。(本文来源于《厦门大学》期刊2018-04-01)
闫文楠[9](2017)在《超高维线性回归模型中基于3×2交叉验证的方差估计》一文中研究指出回归模型中的方差估计是回归分析中的基本统计推断问题之一。良好的方差估计是回归系数的置信区间、假设检验以及变量选择中的调节参数的选择的基础。对于一般的线性模型,方差估计的传统估计方法分为两步:首先用AIC,BIC等准则进行模型的变量选择,而后用最小二乘法对所选变量的回归系数进行估计,用残差平方和除以剩余自由度得到方差的估计,一般称该种估计为最小二乘估计(以下简称LSE)。在典型的线性回归模型下,方差的最小二乘估计是一致最小方差无偏估计。但是,在超高维线性回归中,即协变量的个数远大于样本量的情况下,Fan et al.(2012)发现LSE将会产生很大的偏差,回归变量的维数越高偏差越大。为此,Fan et al.提出了一种基于2折交叉验证的方差的RCV(refitted cross validation)估计方法,即将数据的一半用于模型的变量选择,另一半用于回归系数和方差的估计,大量的模拟实验验证了RCV能有效纠正LSE方法的偏差。然而,我们发现RCV的方差估计主要依赖于变量选择的好坏,若开始用一半的数据选到的变量集不包含全部真实变量,则用另一半估计方差时效果就会差。虽然Fan et al.也提出可以采用多组2折交叉验证,以多组RCV的平均来提高方差估计的精度,但只要有一组变量选择的结果不好,多组RCV估计也不会好。因此,变量选择的好坏是方差估计的关键。事实上,在超高维线性回归中,变量是稀疏的,通常先用SIS方法选择变量个数到适当维度,再去参数估计。但RCV方法在使用SIS选变量时,往往丢掉一些真实变量,即使用多组RCV也没能改善变量选择的结果,导致多组RCV估计的结果也不能得到较大的改进。本文提出了用组块3×2交叉验证方法估计超高维线性回归模型的方差。组块3×2交叉验证是将数据等分为4分,任选两份作为训练集,其余两份为测试集,这样构成3组2折交叉验证。Wang et al.(2014)证明组块3×2交叉验证有良好的性质.具体的估计方法是,以组块3×2交叉验证的6次单独选变量的结果,按变量被选中的次数从大到小来选择最终的变量,确定变量集后再去估计方差。我们将该方法称为方差的投票-组块3×2交叉验证估计(简记为V-B3×2 CV估计)。本论文通过大量的模拟实验对比了V-B3×2CV方法和RCV方法,实验结果表明,VB3×2CV估计的偏度小于RCV估计,且V-B3×2 CV具有更小的方差,同时V-B3×2 CV方法对真实模型的大小不敏感。另外,对真实数据(取自于UCI数据库的白酒数据)也使用V-B3×2 CV方法进行了分析,进一步证明了V-B3×2CV方法的优良性。最后,本文从理论上证明了V-B3×2CV估计的渐近正态性。(本文来源于《山西大学》期刊2017-06-01)
曾力立[10](2016)在《高维线性回归模型下的经验似然方法》一文中研究指出高维数据在许多领域正受到越来越广泛的关注,是目前统计学领域和应用研究中面临困难最多、挑战最严峻,同时也是最有可能取得突破的研究领域之一.在对高维数据进行分析时,运用传统的多元统计分析方法处理实际数据时通常会碰到数据不符合正态分布或数据本身没有多少先验信息的情况.所以,处理时通常考虑非参数的方法.而基于传统的经验似然所形成的方法现已被证明有一定效果.这是因为经验似然既拥有参数方法的有效性又具有非参数方法的稳定性.它在很多情形下比正态逼近方法精确,特别是当数据来自非正态总体或方差估计不稳定时.此外,它有类似于bootstrap的抽样特性,且相比之下更有其自身的优越性,如域保持性、变换不变性以及Bartlett纠偏性.跟bootstrap日比,它的另一个好处是计算量小,并且在一些给定的正则条件下,Wilks定理成立.在这篇论文里,我们的主要目的是检验一个可能的高维线性回归模型的系数是否等于一个给定值.通过把传统经验似然方法里面的高维约束条件巧妙地变换成与维数无关的低维情形,我们首先提出了一个新奇且简单的经验似然检验方法.这个方法保留了传统经验似然方法里的最优性准则并且拥有其他好的特性.在计算偏经验似然函数的时候,涉及到在约束条件下求极大值,这也正是运用经验似然方法的一个关键步骤.为了确保犯第一类错误的概率更加接近于给定显着性水平,我们进一步在先前提出的方法里加入了伪观测值,从而得到更优的检验统计量.随后,我们在几个不同的例子里做了相关模拟以评估我们所提出的方法的检验效果.模拟结果显示我们所提出的检验方法都要优于前人所提出的方法.而由于例子中回归系数取值的特殊性,我们之后又提出了另一种可以用于检验更一般的系数的方法并给出相关定理及模拟结果.本文的主要创新点在于:(1)我们尝试着把传统的经验似然方法里与p有关的高维约束条件巧妙地变换成低维情形,以此构造出新的约束条件,再利用经验似然的方法解决相关假设检验问题.(2)我们在前人的方法及我们所提出的简单经验似然方法里加入了伪观测值,从而作出了一个新奇的调整.调整后的经验似然方法保留了之前方法的所有最优性准则.不仅如此,该方法下的区间覆盖率更接近于置信水平,而且还不需要Bartlett校正和bootstrap方法里那么复杂的程序.(3)对于更一般地回归系数,我们考虑了将原限制条件中的分量加权相加,并且这个加权也是随机的,从而解决了线性模型中回归系数更为一般情况下的假设检验问题.(4)我们针对不同的维数,有区别地加入了约束条件的个数,一方面使得犯两类错误的概率令人满意,另一方面也大大地节省了计算成本.(本文来源于《南京师范大学》期刊2016-03-07)
高维线性模型论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要研究ADMM算法在高维部分线性测量误差模型参数估计和变量选择中的应用.不同于经典的部分线性模型.该模型中的线性部分预测变量不能够被直接观测得到.但可观测到带有测量误差的数据.本文我们考虑测量误差的协方差已知的情况,更一般的情况是测量误差的协方差未知.这种情况,可以用观测到的数据估计出测量误差的协方差.针对部分线性模型,一般的处理方法是先估计非线性部分,然后利用参数估计方法估计线性部分.我们利用ADMM算法求出估计协方差矩阵的最近邻矩阵,并基于该矩阵进行参数估计和变量选择.本文证明了由此方法所得的惩罚估计量在正则条件下,估计参数的误差边界和预测误差满足一定条件,同时估计参数满足符号相合性.本文主要由五个部分构成:第一部分介绍了部分线性模型的提出背景,常规的变量选择方法及关于测量误差模型的当前研究成果和文中主要解决的问题:第二部分给出了高维部分线性测量误差模型自适应Lasso估计量和算法实现过程:第叁部分给出了模型系数估计和变量选择的理论性质:第四部分数值模拟本文提出的方法在小样本下的表现:第五部分给出了定理的详细证明.
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
高维线性模型论文参考文献
[1].黄星寿,赵培信.高维线性均值漂移模型的异常值检测[J].统计与决策.2019
[2].吴登锋.ADMM算法在高维部分线性测量误差模型推断中的应用[D].郑州大学.2019
[3].陈夏,崔艳.高维广义线性模型的拟似然自适应Lasso估计[J].陕西师范大学学报(自然科学版).2019
[4].闫莉,陈夏.高维广义线性模型的惩罚拟似然SCAD估计[J].武汉大学学报(理学版).2018
[5].白璐,陈夏.固定和自适应设计下高维广义线性模型的经验似然检验[J].陕西师范大学学报(自然科学版).2018
[6].何军伟,陈夏.高维半参数变系数部分线性测量误差模型的经验似然校正[J].纺织高校基础科学学报.2018
[7].严奇琪,王延新.高维部分线性小波模型中的变量选择[J].宁波工程学院学报.2018
[8].余婉露.k-class估计在高维线性模型的推广[D].厦门大学.2018
[9].闫文楠.超高维线性回归模型中基于3×2交叉验证的方差估计[D].山西大学.2017
[10].曾力立.高维线性回归模型下的经验似然方法[D].南京师范大学.2016