导读:本文包含了有序决策树论文开题报告文献综述及选题提纲参考文献,主要关键词:综合素质测评,有序分类,有序决策树算法,最大相关最小冗余
有序决策树论文文献综述
石建国[1](2015)在《有序决策树在大学生综合素质测评中的应用研究》一文中研究指出随着教育事业的不断发展,高校教育规模不断扩大,如何提高学生综合素质以及如何科学地评价大学生综合素质成为高校管理者的关注热点。对大学生综合素质进行科学的测评不仅关系着大学生自身的发展,也关系到高校高素质人才的培养。本文在对大学生综合素质测评成绩进行分析研究后发现,挖掘合理的测评规则在本质上就是要解决机器学习领域中的一种有序分类问题。由于学生各课程的成绩存在序关系,综合素质测评结果用“不及格”、“及格”、“良”、“优”等来表示,也满足“不及格<及格<良<优”的序关系,我们认为学生课程的成绩与综合素质测评结果之间满足单调约束关系:学生的所有课程的成绩越好,其综合素质测评结果等级越高。本文主要完成了如下工作:1、将基于有序熵的有序决策树算法应用于大学生综合素质测评工作中,实验结果表明有序决策树算法比经典决策树C4.5算法有更好的分类效果。2、大学生综合素质测评工作是高校每年都要开展的常规工作。近年来,高校招生规模不断扩大、学生数量持续增加导致大学生综合素质测评的工作量不断增加;高校开展的教学改革会导致课程的变化,而课程的变化就会导致大学生综合测评规则重新挖掘。为解决以上问题,首先将基于有序互信息和最大相关最小冗余理论的属性选择算法应用到大学生综合素质测评工作中进行课程选择,然后利用有序决策树进行规则的挖掘;实验结果表明挖掘出的规则更加稳定,挖掘规则的计算量大大减少,提高了测评工作的效率。3、设计实现了大学生综合素质测评系统,并将有序决策树算法与属性选择算法应用到了大学生综合素质测评系统的功能模块中,促进了大学生综合素质测评工作质量的提高。(本文来源于《河北大学》期刊2015-12-01)
王东辉[2](2015)在《有序决策树在SOCA下的扩展及模糊有序决策树的研究》一文中研究指出简单有序分类方法(SOCA:Simple Ordinal Classification Approach)是Frank和Hall提出的通用方法,任何能给出样例概率估计的分类算法,如C4.5算法、K-近邻算法(KNN:k-Nearest Neighbor)和极限学习机(ELM:Extreme Learning Machine)算法等都能应用该方法来解决有序分类问题。但在SOCA中,只有决策属性的序信息被用于分类,而没有考虑条件属性的序信息。但是我们的实验研究发现条件属性的序信息能够改进分类算法的泛化能力。针对上述问题,本文将SOCA推广到有序决策树上,提出了一种改进的有序分类算法,该算法同时考虑了条件属性和决策属性的序信息。另外,本文还分析了SOCA对基本分类算法(如C4.5算法、K-近邻算法和ELM等)的敏感性。另外,我们还将有序决策树推广到了模糊环境,提出了一种模糊有序分类算法。并对本文提出的算法的性能进行了实验分析,实验结果显示本文提出的算法是行之有效的。(本文来源于《河北大学》期刊2015-06-01)
王姗姗[3](2015)在《MapReduce框架下并行有序决策树及有序决策森林》一文中研究指出传统的有序决策树能有效处理单调分类问题。然而,从大数据集中用这些算法学习单调决策树却是非常困难的。为了解决从大数据集中生成有序决策树的问题,本文在MapReduce框架下,提出了一种并行处理方法。和传统的有序决策树归纳算法类似,我们用有序互信息作为启发式来选择扩展属性。和现存的有序决策树归纳算法计算互信息的方法不同,本文应用属性并行化策略计算有序互信息。在人工生成的大数据集上的实验结果显示本文提出的算法是可行的,而且从加速比(speed-up),扩展比(scale-up)和承载比(size-up)叁方面证实本文提出的算法是行之有效的。基于VC-DRSA理论完成有序随机森林算法,并结合MapReduce计算框架,在Hadoop平台上对有序随机森林算法进行了并行化,提高了算法的运行效率;实验结果也证实了该算法的可行性及有效性。(本文来源于《河北大学》期刊2015-05-01)
陈建凯[4](2014)在《基于排序熵的有序决策树高效算法研究》一文中研究指出基于排序熵的有序决策树归纳在选择扩展属性时,需要计算每个条件属性的每个割点的排序互信息,并通过比较这些排序互信息的大小来选择扩展属性,计算复杂度高,特别是在处理海量数据时,计算时间复杂度高会成为该算法的应用瓶颈。针对以上问题,本文研究了如何提高有序决策树的计算效率,主要工作包括以下两个方面:1.在选取扩展属性时,将割点分为平衡割点和非平衡割点两部分,建立了一个数学模型,从理论上证明了排序互信息最大值不会在平衡割点处达到,而只能在非平衡割点处达到。这个结果意味着算法在计算排序互信息时只需遍历非平衡割点,而无需计算平衡割点处的值,这样可提高有序决策树归纳的计算效率。2.针对海量数据的有序分类问题,论文探讨了几种基于排序熵的有序决策树并行策略,并给出了基于MapReduce的有序决策树算法并行化方法,可使选择扩展属性的时间降低、算法的效率提高。分别在人工数据集和实际数据集上进行了实验,实验结果表明本文提出的方法可提高有序决策树归纳的计算效率。(本文来源于《河北大学》期刊2014-06-01)
王鑫[5](2014)在《基于FRMI的有序决策树算法及其比较研究》一文中研究指出有序分类是现实生活中广泛存在的一种分类问题。基于排序熵的有序决策树算法(REMT:Rank Entropy Based Decision Tree)是处理有序分类问题的重要方法之一。这种方法是以排序互信息作为启发式来构建有序决策树。在这一工作的基础上,本文通过引入模糊排序熵,并以模糊有序互信息作为启发式,提出了基于模糊排序熵的有序决策树分类算法(FREMT:Fuzzy Rank Entropy Based Decision Tree),该算法是REMT算法的推广,此算法可以有效地处理现实问题中的有序分类问题。这两种算法在实际应用中各有自己的优劣之处,针对这个问题本文将C4.5、RT、REMT、FREMT四种决策树算法进行了比较研究,在十五个数据集上进行了实验,分别从扩展属性的选择、树的复杂程度以及分类准确率,这叁方面对这四种决策树算法进行了详细的比较研究。对比分析了各个算法之间的异同以及优缺点,为解决不同的问题时选择不同的算法提供了一个有意义的探索。(本文来源于《河北大学》期刊2014-06-01)
潘盼[6](2014)在《改进的有序决策树归纳算法》一文中研究指出在已有的有序决策树归纳算法中,选择条件属性和决策属性的有序互信息值最大的属性作为扩展属性,没有考虑到那些取值多且有序的条件属性和属性之间的相关性,这就造成了重复选择某个条件属性为扩展属性,这样会使得分类器的分类效果不佳,测试集的精确度不高。针对这一问题,本文对有序决策树归纳算法进行了改进,主要工作包括以下两个方面:1.提出了一种新的有序决策树归纳算法。该算法选择的扩展属性不仅和类的有序互信息值最大,而且要求和同一分支上已被用过的条件属性的有序互信息值最小,可避免同一条件属性的重复选择,真正体现了条件属性和决策属性之间的有序互信息,从而提高了测试精度。2.在有序数据集中,有的属性取值多且有序,也会影响扩展属性的选择,使测试精度降低,考虑到这个问题,用有序互信息率代替有序互信息来选择扩展属性,克服选择扩展属性时偏向取值多且有序的属性,从而提高测试精度。(本文来源于《河北大学》期刊2014-05-01)
潘盼,王熙照,翟俊海[7](2014)在《基于有序决策树的改进归纳算法》一文中研究指出基于构建有序决策树,提出了一种新的归纳算法。该算法选择的扩展属性不仅和类的有序互信息值最大,而且要求和同一分支上已被用过的条件属性的有序互信息值最小。实验结果表明,考虑了条件属性之间的相关性后,可避免同一条件属性的重复选择,真正体现了条件属性和决策属性之间的有序互信息,与已有的算法相比,提高了测试精度。(本文来源于《山东大学学报(工学版)》期刊2014年01期)
陈建凯,王熙照,高相辉[8](2014)在《改进的基于排序熵的有序决策树算法》一文中研究指出由于基于排序熵的有序决策树在扩展属性选取时,需计算每个条件属性的每个割点处的排序互信息,并通过对比这些排序互信息的大小来确定最大值(最大值对应的属性为扩展属性),计算复杂度较高.针对此问题,文中将割点分为平衡割点和非平衡割点两部分,建立一个数学模型,从理论上证明排序互信息最大值不会在平衡割点处达到,而只能在非平衡割点处达到.这说明在计算排序互信息时只需遍历非平衡割点,而无需再计算平衡割点处的值,从而使决策树构建的计算效率得到较大程度提高.数值实验验证此结果.(本文来源于《模式识别与人工智能》期刊2014年02期)
许行,梁吉业,王宝丽[9](2013)在《基于双向有序互信息的单调分类决策树算法》一文中研究指出决策树是一种智能进行实例分类的数据挖掘方法,已被广泛应用于机器学习、数据挖掘、智能控制等人工智能领域.单调决策树可以解决属性具有单调序关系的分类问题,近年来引起了国内外研究者的广泛关注.Hu提出了基于优势关系的有序信息熵的概念,并将其成功地运用于有序决策树的构造算法中,得到了较好的效果.在Hu的算法的基础上,利用双向的有序互信息生成不同的决策树,再集成其分类规则得到最后的决策结果,实验数据表明,相对于单向的有序分类树,此算法可以提高分类准确率,缩短分类规则的长度.(本文来源于《南京大学学报(自然科学版)》期刊2013年05期)
王鑫,王熙照,陈建凯,翟俊海[10](2013)在《有序决策树的比较研究》一文中研究指出有序分类是现实生活中广泛存在的一种分类问题。基于排序熵的有序决策树算法是处理有序分类问题的重要方法之一,这种方法是以排序互信息作为启发式来构建有序决策树。基于这项工作,通过引入模糊有序熵,并以模糊有序互信息作为启发式构建模糊有序决策树,对有序决策树进行了扩展。这两种算法在实际应用中各有自己的优劣之处,从四个方面对这两种算法进行了详细的比较,并指出了这两种算法的异同及优缺点。(本文来源于《计算机科学与探索》期刊2013年11期)
有序决策树论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
简单有序分类方法(SOCA:Simple Ordinal Classification Approach)是Frank和Hall提出的通用方法,任何能给出样例概率估计的分类算法,如C4.5算法、K-近邻算法(KNN:k-Nearest Neighbor)和极限学习机(ELM:Extreme Learning Machine)算法等都能应用该方法来解决有序分类问题。但在SOCA中,只有决策属性的序信息被用于分类,而没有考虑条件属性的序信息。但是我们的实验研究发现条件属性的序信息能够改进分类算法的泛化能力。针对上述问题,本文将SOCA推广到有序决策树上,提出了一种改进的有序分类算法,该算法同时考虑了条件属性和决策属性的序信息。另外,本文还分析了SOCA对基本分类算法(如C4.5算法、K-近邻算法和ELM等)的敏感性。另外,我们还将有序决策树推广到了模糊环境,提出了一种模糊有序分类算法。并对本文提出的算法的性能进行了实验分析,实验结果显示本文提出的算法是行之有效的。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
有序决策树论文参考文献
[1].石建国.有序决策树在大学生综合素质测评中的应用研究[D].河北大学.2015
[2].王东辉.有序决策树在SOCA下的扩展及模糊有序决策树的研究[D].河北大学.2015
[3].王姗姗.MapReduce框架下并行有序决策树及有序决策森林[D].河北大学.2015
[4].陈建凯.基于排序熵的有序决策树高效算法研究[D].河北大学.2014
[5].王鑫.基于FRMI的有序决策树算法及其比较研究[D].河北大学.2014
[6].潘盼.改进的有序决策树归纳算法[D].河北大学.2014
[7].潘盼,王熙照,翟俊海.基于有序决策树的改进归纳算法[J].山东大学学报(工学版).2014
[8].陈建凯,王熙照,高相辉.改进的基于排序熵的有序决策树算法[J].模式识别与人工智能.2014
[9].许行,梁吉业,王宝丽.基于双向有序互信息的单调分类决策树算法[J].南京大学学报(自然科学版).2013
[10].王鑫,王熙照,陈建凯,翟俊海.有序决策树的比较研究[J].计算机科学与探索.2013