导读:本文包含了面向机器论文开题报告文献综述及选题提纲参考文献,主要关键词:神经机器翻译,半监督学习,多模态,强化学习
面向机器论文文献综述
王怡君[1](2019)在《面向有限平行语料资源的神经机器翻译方法研究》一文中研究指出近年来,深度学习的研究热潮迅速渗透了自然语言处理研究的各个领域,其中也包括了机器翻译领域。深度学习给机器翻译带来了极大的改变,使之不再需要面对传统统计机器翻译中的特征设计等难题。特别地,使用了深度学习技术的神经机器翻译近几年在国内外都取得了突飞猛进的发展,获得了翻译效果上的全面提升,成为了机器翻译领域的核心技术。然而,神经机器翻译模型的效果高度依赖于平行语料的规模和质量。而在实际的许多语言和领域中,高质量的平行语料资源是十分有限的,因此制约了神经机器翻译模型的性能。针对以上问题,本文旨在探索如何使用较少的平行语料,同时充分利用其他比较容易获取的资源来帮助神经机器翻译模型的训练。具体来说,本文在有限的平行语料资源的背景下,以挖掘利用其他相关资源为核心,开展以下叁个方面的研究工作:首先,从有效开发利用单语语料的角度出发,本文研究同时使用平行语料和单语语料进行模型训练的问题,提出了一种新的半监督神经机器翻译方法。该方法的主要思想是通过全概率公式来估计目标语言端单语语料的似然并同时最大化平行语料和单语语料的似然。进一步地,为了解决在计算全概率公式中的期望项时搜索空间过大的问题,采用了重要性采样的方法来避免枚举所有可能的源语言句子,并保证了目标函数的有效性。在英语-法语和德语-英语两个翻译任务上的实验结果证实了本文提出的方法相比于其他半监督神经机器翻译方法的优越性。然后,本文通过神经机器翻译模型的概率性质引入数据相关的正则化项,并将其应用到单语语料上以帮助神经机器翻译模型的训练。具体来说,全概率公式描述了边缘分布与条件分布之间的关系,即将翻译模型与语言模型通过概率等式联系起来。然而,在实际中使用平行语料训练的神经机器翻译模型无法保证在任意数据上满足全概率公式。因此,我们提出将全概率公式作为正则化项加入到模型的训练目标中,从而显式地强调模型之间的概率关系,以便使模型学习的过程朝着正确的方向进行。其中,加入的正则化项可以应用在包括单语语料的任何数据上,即数据相关的正则化。最后,在英语-法语和德语-英语两个翻译任务上的实验结果证实了该方法的有效性。最后,进一步考虑神经机器翻译中平行语料数据短缺的问题,本文针对完全没有平行语料的神经机器翻译场景(即零资源神经机器翻译)开展了研究。具体来说,本文借助额外的多模态语料来构建神经机器翻译系统,通过将零资源的多模态神经机器翻译任务转化为强化学习问题进行训练,并引入一种句子级别的监督信号,即通过图像来估计源语言句子和目标语言句子之间的相关性以评估目标语言句子的质量。在此基础上,本文设计了两种不同的奖励函数来指导模型的学习过程。最后,在叁个数据集的叁个翻译任务上的实验结果验证了提出的强化学习训练方法的有效性。(本文来源于《中国科学技术大学》期刊2019-11-01)
曾道建,向凌云,周书仁[2](2019)在《面向本科生的机器学习课程教学改革探讨》一文中研究指出针对人工智能专业核心课程"机器学习"教学实践中遇到的问题,从分析课程教学的核心内容出发,多方面探讨"机器学习"课程教学改革措施。提出针对课程教学和课程考核的改革方案,探讨利用基础知识强化和网络教学等方式丰富的教学手段,激发学生的学习和研究兴趣。(本文来源于《科技经济导刊》期刊2019年30期)
杨康,黄定江,高明[3](2019)在《面向自动问答的机器阅读理解综述》一文中研究指出人工智能正在深彻地变革各个行业.AI与教育的结合加速推动教育的结构性变革,正在将传统教育转变为智适应教育.基于深度学习的自动问答系统不仅可帮助学生实时解答疑惑、获取知识,还可以快速获取学生行为数据,加速教育的个性化和智能化.机器阅读理解是自动问答系统的核心模块,是理解学生问题,理解文档内容,快速获取知识的重要技术.在过去的几年里,随着深度学习复兴以及大规模机器阅读数据集的公开,各种各样的基于神经网络的机器阅读模型不断涌现.这篇综述主要讲述3方面的内容:介绍机器阅读理解的定义与发展历程;分析神经机器阅读模型之间的优点及不足;总结机器阅读领域的公开数据集以及评价方法.(本文来源于《华东师范大学学报(自然科学版)》期刊2019年05期)
张潇,支天[4](2019)在《面向多核处理器的机器学习推理框架》一文中研究指出近年来,深度神经网络被广泛应用于各个领域并取得了极大的成功.由于神经网络模型的尺寸和计算量的不断增加,为了能够高效迅速地完成神经网络的计算,包括GPU和专用加速器在内的很多新型硬件处理器被用于深度学习的计算.尽管如此,通用处理器作为目前最为常见和易于获得的计算平台,探究如何高效地在其上运行神经网络算法同样具有重要意义.多核处理器在训练阶段可以采用数据并行的方式来提高数据吞吐量,加快训练速度.然而在推理阶段,相比吞吐量场景,端到端的时延往往更加重要,因为这决定了处理器在某个场景下的可用性.传统的数据并行方案不能满足推理场景下对处理器小数据、低延迟的要求.因此,对于多核的处理器结构,需要在算子内部对计算进行拆分,才能够充分利用多核结构的硬件资源.考虑到处理器的计算特点,需要一种精细的方法来对计算图中的算子进行合理的拆分,才能真正有效地发挥出多核处理器的计算潜能.提出一种基于算子拆分的并行框架,可以用较小的开销实现处理器由单核向多核结构上的扩展,并且能够针对给定的网络和底层处理器特点给出一种高效的拆分方案.实验结果表明:该方法能有效降低各种网络在多核处理器上的端到端时延.(本文来源于《计算机研究与发展》期刊2019年09期)
刘倩,李宁,田英爱[5](2019)在《面向机器学习的流式文档逻辑结构标注方法研究》一文中研究指出针对采用机器学习方法识别流式文档结构时语料库稀少、语料标注复杂的问题,该文在研究文档的逻辑结构和编辑语义特征的基础上,确立流式文档逻辑结构标注体系,并提出一种叁段式的半自动文档逻辑结构标注方法:第一阶段通过机助人工实现文档元数据的分离式标注,第二阶段自动重建逻辑结构,第叁阶段自动填充特征向量。实验结果表明,该文提出的文档逻辑结构标注方法能够节省人工成本、提高机器学习算法对文档结构识别的准确率与召回率,F值达到97.5%。(本文来源于《中文信息学报》期刊2019年09期)
马国玉[6](2019)在《面向大规模机器通信的多址接入技术研究》一文中研究指出作为未来第四次工业革命的关键技术支撑,物联网的蓬勃发展激起了业界对机器类通信的研究热情。与传统的人类通信不同,物联网中的机器类通信关注高连接性和高可靠性要求。为此,第五代移动通信系统中提出了两种新的应用场景,分别为大规模机器通信场景和超可靠低时延通信场景。其中,大规模机器通信场景主要为未来物联网智能传感和控制系统中大量微型传感器和作动器提供通信服务。由于所服务的微型设备往往具有低功耗要求,因而业界引入了免授权随机接入过程以降低设备的信令开销。同时,由于低频段频谱的稀缺性,如何利用有限的无线电资源实现海量设备的免授权随机接入成为大规模机器通信场景的主要挑战,而应对这一挑战的关键就是行之有效的多址接入技术。因此,研究面向大规模机器通信的新型多址接入技术对实现海量低功耗用户设备的高效连接具有重要意义。本论文针对大规模机器通信系统中无线电资源有限及能量供应有限等问题,考虑大规模机器通信系统高连接、高可靠、低复杂度等需求,采用编码理论、组合数学、信号检测估计等理论方法以及模型建立、算法设计、性能评估、仿真验证等研究手段,提出了一种面向大规模机器通信的新型多址技术,称为串联扩频多址技术,并围绕该技术展开了收发机设计、异步解决方案及多时隙联合设计的研究。论文的创新性工作主要包括如下几个方面:1)对于免授权随机接入过程,考虑大规模机器通信的零星传输特性,针对现有多址技术研究中接收端大多依靠迭代式算法这一局限,本文提出了一种新型的多址方案,称为串联扩频网络编码多址方案,初步确定了串联扩频多址技术的收发机设计,为后续的改进与完善提供了基础。该方案将用户数据包进行分段,并利用物理层网络编码生成冗余数据段。同时,该方案引入了一种新型的扩频方式,称为串联扩频,即利用多个扩频序列对单个用户不同数据段上的调制符号进行扩频。基于物理层网络编码及串联扩频,该方案的接收端不再依靠迭代式算法便可以同时实现激活用户识别及数据检测,从而有效地支持大规模用户的零星随机接入。2)考虑未来同时要求高连接性及高可靠性的潜在物联网应用,以及现有研究在多种系统性能需求的兼顾与权衡上存在的不足,本文在串联扩频网络编码多址方案的基础上对串联扩频多址技术的收发机进行改进,提出了编码串联扩频多址方案。该方案引入了段编码,并改进了串联扩频的码本设计,从而不仅可以支持更高的用户连接数量,且可以实现用户的高可靠接入。针对编码串联扩频多址方案,本文探索了其在用户连接数量、用户碰撞解决概率以及用户速率叁者之间的权衡制约关系,并指出串联扩频多址技术可以通过牺牲用户速率来灵活地实现大规模连接及高可靠接入。3)考虑大规模机器通信场景中由于用户设备位置不同而导致上行接入信号的异步到达,本文针对串联扩频多址技术提出了相应的异步解决方案。该方案在串联扩频多址技术的发射端采用新的扩频序列,并对扩频码片进行交织,从而有效地缓解异步对用户识别及数据检测性能的影响。同时,该方案提出了相应的上行信道估计方案,使串联扩频多址技术的实现具有可行性。4)针对面向大规模机器通信的物理层多址技术在碰撞解决能力上存在的局限,结合相关介质访问控制层多址技术,本文提出了多时隙串联扩频多址方案。该方案可以使物理层的串联扩频多址技术与介质访问控制层的编码时隙ALOHA技术在碰撞解决能力上进行互补,从而实现更可靠的大规模用户接入。在该方案的基础上,本文从理论层面分析了其碰撞解决能力,推导出相应的平均用户碰撞解决概率,并利用数值仿真进行了验证。仿真结果表明多时隙串联扩频多址方案可以通过进一步牺牲用户速率来提升用户的接入可靠性。(本文来源于《北京交通大学》期刊2019-09-01)
王宇翔[7](2019)在《面向自然语言处理的机器词典的研制》一文中研究指出随着计算机技术的不断发展和普及,我国相关工作人员开始研究面向自然语言处理的机器词典。近年来,北京大学计算机语言学研究所研制了《现代汉语语法信息词典》(简称GKB)。在GKB的基础上,相关工作人员衍生了综合型语言知识库。由于面向自然语言处理的机器词典在语言工程研究上具有重要意义,因此介绍了GKB及相关研究结果,分析了语言工程研究的相关经验,以期为相关工作者提供指导和帮助。(本文来源于《信息与电脑(理论版)》期刊2019年15期)
孙哲,李涛,邢立冬,许晓燕[8](2019)在《面向机器学习的高性能SIMT处理器存储系统设计与实现》一文中研究指出针对自主研发的高性能SIMT处理器中多线程运算时并行数据的快速存取问题,设计了一种适用于SIMT架构的存储系统,其主要包含存储控制器、数据缓存(cache)和指令缓存等设备.该设计使用可综合的Verilog HDL语言实现其硬件电路,同时搭建基于FPGA的验证平台对存储系统进行功能验证.在Xilinx公司的FPGA芯片xcvu440-flga-2892-2-e上综合最大时钟频率可达到285 MHz.通过各方面验证,表明所设计的存储系统满足系统要求.(本文来源于《微电子学与计算机》期刊2019年08期)
许晓燕,李涛,孙哲,邢立冬[9](2019)在《面向机器学习的高性能SIMT处理器cache的设计与实现》一文中研究指出为了满足机器学习中大数据、并行计算及降低处理器与主存之间的差距等要求,设计基于自主研发的SIMT处理器的流水线cache结构。依据局部性原理与LRU替换算法相结合设计专用的伪LRU替换算法,与通用的轮询、LFU、LRU替换算法共同完成cache替换算法的可配置要求,实现处理器与主存之间的快速交互。采用Xilinx公司virtex ultrascale系列的xcvu440-flga2892-2-e FPGA芯片对设计进行综合。结果表明该结构指令cache最大时延为2.923 ns,数据cache最大时延为3.258 ns,满足SIMT处理器性能要求。(本文来源于《计算机应用与软件》期刊2019年07期)
荆栎菊[10](2019)在《面向自然图像和计算机生成图像鉴别的机器学习算法研究》一文中研究指出随着数字媒体技术快速发展,人们可以利用复杂数学模型生成高度逼真的计算机合成图像,这极大地促进了虚拟现实技术的发展,但同时也带来了数字图像的真实性鉴别等安全问题。如何区分采集自真实场景的自然图像和计算机生成的强真实感虚拟图像是目前数字图像真实性鉴别中的重要课题之一。已有方法中大多采用传感器模式噪声作为图像取证特征,但其中滤波降噪算子和描述模式噪声的纹理特征表达能力不足。本文结合双树复小波(Dual-Tree Complex Wavelet Transform,DT-CWT)与机器学习中的支持向量机(Support Vector Machine,SVM)和深度卷积神经网络(Deep Convolutional Neural Network,DCNN)等理论和方法,提出了一套解决方案。具体研究工作如下:1·提出了一种基于双树复小波域与支持向量机的自然图像和计算机生成图像区分算法。该算法首先利用降噪算子得到图像的传感器模式噪音,并使用奇异值分解(Singular Value Decomposition,SVD)进行增强处理。然后在双树复小波变换基础上,提取每个子带的能量和偏差作为特征。最后利用SVM进行分类。实验结果表明,该方法不但提取的特征维度较低,而且精确度较高。2.提出了一种基于深度卷积神经网络的自然图像和计算机生成图像鉴别算法。在预处理阶段,运用算法1中的降噪算子生成模式噪声图像。在特征提取阶段,利用本文设计的8层深度卷积神经网络对模式噪音图像进行特征提取。最后选用SVM和SoftMax作为分类器。实验结果表明,相比现有文献,本算法具有网络结构简单和训练速度快等优点,且取得较高精确度。3.提出了一种基于迁移学习的自然图像和计算机生成图像识别算法。本算法首先运用1中的降噪算子生成模式噪声图像,然后以微调的方式将AlexNet、VGG16、ResNetl8叁个预训练模型在小规模的图像集上进行参数移植再训练。通过实验验证,利用训练好的深度神经网络进行参数微调后解决本文的图像识别问题,不但能够适应小样本数据的需求,而且可以达到更高的准确率。(本文来源于《西安理工大学》期刊2019-06-30)
面向机器论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
针对人工智能专业核心课程"机器学习"教学实践中遇到的问题,从分析课程教学的核心内容出发,多方面探讨"机器学习"课程教学改革措施。提出针对课程教学和课程考核的改革方案,探讨利用基础知识强化和网络教学等方式丰富的教学手段,激发学生的学习和研究兴趣。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
面向机器论文参考文献
[1].王怡君.面向有限平行语料资源的神经机器翻译方法研究[D].中国科学技术大学.2019
[2].曾道建,向凌云,周书仁.面向本科生的机器学习课程教学改革探讨[J].科技经济导刊.2019
[3].杨康,黄定江,高明.面向自动问答的机器阅读理解综述[J].华东师范大学学报(自然科学版).2019
[4].张潇,支天.面向多核处理器的机器学习推理框架[J].计算机研究与发展.2019
[5].刘倩,李宁,田英爱.面向机器学习的流式文档逻辑结构标注方法研究[J].中文信息学报.2019
[6].马国玉.面向大规模机器通信的多址接入技术研究[D].北京交通大学.2019
[7].王宇翔.面向自然语言处理的机器词典的研制[J].信息与电脑(理论版).2019
[8].孙哲,李涛,邢立冬,许晓燕.面向机器学习的高性能SIMT处理器存储系统设计与实现[J].微电子学与计算机.2019
[9].许晓燕,李涛,孙哲,邢立冬.面向机器学习的高性能SIMT处理器cache的设计与实现[J].计算机应用与软件.2019
[10].荆栎菊.面向自然图像和计算机生成图像鉴别的机器学习算法研究[D].西安理工大学.2019