导读:本文包含了文本驱动论文开题报告文献综述及选题提纲参考文献,主要关键词:文本驱动,动画素材,自动检索,特征提取
文本驱动论文文献综述
王永强,韩磊[1](2018)在《基于文本驱动的动画素材自动检索系统设计》一文中研究指出针对当前方法在设计动画素材自动检索系统时,当用户输入样图文件较大,不适于存储的情况下,多是经过JPEG压缩,导致图像产生很多噪点,严重影响后续检索结果,为此提出基于文本驱动的动画素材自动检索系统设计方法。对动画素材自动检索系统的功能单元进行具体分析;同时以动画素材样图分割、图像特征提取以及图像特征检索技术为基础,设计动画素材自动检索系统的文本驱动,设计系统服务器数据库动画素材数据录入准则和检验方法,增强系统规范化和扩展性。通过实验结果分析可知,所提方法获得的检索图像质量较好,保留了图像的细节特征,且获得的检索结果与用户输入的动画素材样图相似度较高,能够满足系统设计要求。(本文来源于《现代电子技术》期刊2018年24期)
吴汇哲[2](2018)在《社交文本驱动的混合深度序列股票预测模型》一文中研究指出对于股票市场预测问题,除了仅仅考虑股票价格序列,利用例如推特等社交媒体的即时短文本进行股价趋势预测可能会得到更理想的效果。目前在这一领域许多时间序列建模方法已经被尝试和探索,如时间序列自回归预测。然而,由于种种因素,如依赖于情感分析、股票价格时序数据和社交文本序列之间缺乏有效的关联和融合等,极大地影响了最终的预测效果。出于解决这些问题的考虑,本文首先提出了一个成对循环神经网络。利用带标签的隐含狄利克雷分布模型以序列中每天的推特集合为建模对象,依据每个股票的词分布和一个标注的词的情感字典,获取每支股票的主题情感分数,作为更加细粒度的情感特征序列表示,代替原先的股票二值化价格特征,并建立一个长短时记忆网络对其建模。同时,以推特的向量表示作为文本基本输入单元,建立一个两层的长短时记忆网络对社交文本数据进行建模,在上层模型中进一步融合两种不同模态的数据。为缓解社交文本噪声问题对于价格趋势预测的影响,本文进一步提出了一个新颖的基于注意力的跨模态混合循环神经网络。结构上主要有两块模块组成。一部分利用了一个两阶注意力循环神经网络获取不同股票的价格趋势向量表示。另一部分利用了长短时记忆网络单元建模以天为单位表示的社交文本向量。这两部分以以下两种方式紧密地结合起来:1)通过采用一个跨模态的注意力机制,第一个模块得到的价格序列表示被用于选择与股价趋势更相关的社交文本,2)在模型上层,整合文本和股价序列表示。本文爬取了时间跨度为一年的推特文本数据和雅虎金融上的股价数据。通过在真实数据集上的综合实验可以证明,成对循环神经网络结合和两种模态数据,并利用神经网络进行了进一步融合,产生了比较明显的预测提升。而基于注意力的跨模态混合循环神经网络中,证明了合理地进行多模态数据的表示和融合,有效地过滤对预测没有帮助的社交文本噪声,能够产生很好的预测效果和投资回报。(本文来源于《华东师范大学》期刊2018-09-01)
周荣[3](2016)在《“培养文化意识:以文本驱动方法为依据进行高效语言教学实践”翻译项目报告》一文中研究指出本报告以纽马克的交际翻译理论为指导,翻译项目原文为“培养文化意识:以文本驱动方法为依据进行高效语言教学实践”(Developing Cultural Awareness:The TextDriven Approach as Evidence of a Good Language Teaching Practice)。原文主要记录了一个研究案例,该案例分为叁个阶段,分别为识别问题、在文本驱动教学法指导下设计系列课堂活动、在两个不同的教室开展为期叁个月的课堂活动。翻译过程中,原文出现了许多教学术语,以及结构复杂的长难句。因此,本文以纽马克的交际翻译为理论依据,解决英译汉文本中具有代表性的重难点部分,同时充分考虑目标读者所处的文化背景、接受能力、阅读习惯等因素。译者选用意译、顺译、逆译、拆译等翻译方法,力求为读者传递更准确、更全面的原文信息,达到交际翻译的最佳效果,从而为同类型文本的翻译实践提供参考。本翻译报告分为五个部分。第一,翻译项目概述,包括项目背景、项目目标和项目意义。第二,原文分析和翻译准备,包括原文基本信息介绍、文本类型、文本语言特征和译前准备。第叁,介绍交际翻译理论以及它对翻译项目的启示。第四,找出翻译过程中的难点和问题,结合例句说明所采取的翻译方法。第五,项目总结,阐述翻译过程中的经验以及尚待解决的问题,并最终得出本篇报告的研究结论。(本文来源于《四川外国语大学》期刊2016-04-01)
王跃[4](2014)在《基于汉语协同发音模型的文本驱动叁维口型动画合成研究》一文中研究指出随着计算机动画技术的不断发展,人们对叁维虚拟模型情感表达的真实感提出了更高的需求,叁维口型动画就是其中的一个重要部分。论文根据汉语协同发音规律对口型合成的影响,提出了一种基于汉语协同发音模型的叁维口型动画驱动方法,使得叁维口型动画的合成更流畅、更平滑、更接近人们真实发音时的口型。本文的研究内容如下:(1)完成声母和韵母的聚类,构建汉语可视化协同发音模型,解决协同发音对汉语连续发音时口型的影响。(2)利用MPEG-4中“中性人脸”和“FDP”的定义规范化叁维模型,并建立基本口型库。(3)利用连续文本驱动合成口型动画,实现口型间的平滑过渡。本文的创新点如下:(1)改进基于汉语的协同发音模型。首先,为每一类不同的声母和韵母增加不同的“影响等级”和“受影响等级”属性,并综合考虑口型发音姿态,改进声母和韵母聚类方法。其次,增加考虑音节间元音的相互影响,构建协同发音模型,提高模型的表达能力。(2)提出了一种基于连续文本驱动口型动画合成方法。利用改进的协同发音模型,实现输入的所有发音音素的优化,输出新的口型序列。通过改进对插值生成过渡帧的控制,生成更具真实感的口型动画。实验表明,论文提出的方法能充分模拟汉语协同发音对发音口型的影响,可以合成自然流畅的口型动画。基于文本驱动的真实感叁维人脸动画在影视、游戏、社会生活、教育等多个领域都具有极其广阔的应用前景。(本文来源于《山东财经大学》期刊2014-05-01)
陶京京[5](2014)在《文本驱动的3D可视语音合成技术研究》一文中研究指出本文主要针对文本驱动的3D唇部可视语音合成技术进行研究。首先对叁维唇部特征进行分析,并利用叁维动态捕捉系统完成了特征点确定及特征点运动数据的采集工作;在可视语音合成方面采用图像拼接序列法,并融合了关键帧变形法中关键帧确定和提取的部分,并融合关键帧变形法,运用了关键帧变形法中对关键帧的确定和提取方法,将提取出的关键帧作为图像拼接的基础帧,用于图像拼接序列中的过渡帧合成;在输入文本分析方面采用了C++编程方法,利用目前已有的汉字-拼音库,基于汉语音素与可视音素即视素的归类方法,将输入文本转换为对应拼音,再将拼音拆分为最小音素;对于文本驱动的方法,首先根据音素口型变化特征确定视素的分类,确定音素与对应叁维口型的映射关系,利用这个映射建立拼音-口型的映射关系,再建立文本-口型的映射关系。在上述研究的基础上,通过输入文本能够得到对应叁维口型,再通过图像拼接方法,运用叁维图像的插值手法,使输出的图像序列能更真实地反映唇部运动状态。软件仿真表明,所研究的方法在一定程度上实现了文本-可视语音合成,输出的唇部运动效果与实时的叁维动态捕捉系统采集得到的视频相比,输出图像没有跳点,运动变化过程更清晰。(本文来源于《长春理工大学》期刊2014-03-01)
王森[6](2013)在《语音文本驱动的中国手语动画合成》一文中研究指出为了帮助聋人更好地融入正常人的社会,改变他们的弱势地位,越来越多的研究人员参与到手语的研究领域中。近年来,一种通过合成虚拟人手语动画的方法被提出来,便于聋人通过观看手语动画理解和接收信息。而要合成更具真实感和可懂度的手语动画,实现手语表达中的韵律信息是必要的。同语音中的韵律信息在语言表达中起的作用一样,手语中的韵律能够提高手势的表达能力,提供额外的辅助理解的功能。在合成手语时,除了提供必须的用于表达语义的文本信息外,还需要得到手语表达所需的韵律信息。本文从语音中的韵律信息入手,考虑使用语音表达中的丰富韵律信息,将其映射转换至手语韵律参数,从而得到具有韵律信息的手语动画。在本文中,为了提取出语音中的韵律信息,针对汉语中韵律表达的特点,选取了基本声学参数中的音节时长,音强和音高参数。音节的时长通过采用基于汉语元音的端点检测方法,划分出各个音节的边界;音强则在此基础上用其短时能量来表示;对于音高的计算,则通过使用倒谱法估计出其基音频率得到。本文利用这几个基本的声学参数,构造出了一个用于识别强调韵律的特征向量,并使用其训练不同韵律模式的隐马尔科夫模型(HMM)。为了提高训练出的模型的鲁棒性,考虑人耳感知强调韵律的特性,采用了一系列相对值用于构成该向量。通过HMM识别出的韵律模式和得到的相关参数,将其映射转换到手语表达的韵律参数,就能直接用于合成中国手语动画。从语音韵律到手语韵律的映射,采用了中国手语标记语言(CSLML)对其进行描述。最后本文在机顶盒平台上实现了一个伴随电视节目播放而同时播放中国手语动画的系统,能够有效地帮助聋人观看电视节目,接收社会信息。(本文来源于《北京工业大学》期刊2013-06-18)
郑文思[7](2013)在《藏语夏河话文本驱动唇形参数合成系统》一文中研究指出本文采用matlab搭建参数提取平台,从唇形avi视频信号中提取出10个唇部动画参数来描述唇形,运用聚类方法将夏河话声韵母共分为16个基本静态唇位,最后通过标注方法得到音素时间信息实现了藏语夏河话的唇形合成。论文主要内容如下:根据藏语夏河话语音特点及发音入特点建立夏河话唇形模型并建立参数提取平台,平台读取avi视频文件,提取每一帧视频图像,并可以对图像帧进行标注,提取唇形参数,并对提取参数进行保存。由参数提取平台所得参数,设计算法分别对夏河话声韵母进行聚类分析,由此得到夏河话15类的静态唇位并以此得出藏语夏河话的16类基本唇形。根据所得基本唇形及文本、时间信息实现藏语夏河话唇形参数合成系统,系统由唇形语音映射表及文语转换表合成夏河话唇形,实现唇形图像及语音的同步播放。为提高合成唇形的自然度,对所合成唇形进行后期处理,并通过听辨实验及累计评价检验合成效果。综上所述,论文根据藏语语音的特点,实现了对夏河话的唇形参数提取系统,并对所提参数进行分析,得出夏河话静态唇位并实现了藏语夏河话文本驱动唇形参数合成系统,最后对合成效果进行了检验,检验结果证明合成系统效果误差在合理误差之内,合成方法有效可行。(本文来源于《西北民族大学》期刊2013-05-01)
李蓓[8](2013)在《汉语文本驱动的人脸动画演示系统设计》一文中研究指出近年来逼真的叁维人脸动画系统的研究已成为计算机领域的热门话题,并在人工智能、影视制作、多媒体教学、远程会议和计算机游戏等方面得到广泛的应用。但是,目前国内对于叁维动画系统的研究还处于初级阶段,如何针对特定的人脸建立逼真的叁维模型,并运用汉语文本驱动人脸动画模型,叁维动画关键帧之间的自然过渡,且与实际生活中人在说话时的嘴型相符都是目前的研究重点与难点。本文在分析研究了叁维人脸建模、叁维动画和汉语文本分析的关键技术和难点问题的基础上,采用基于形变模型的人脸重建方法,完成了特定叁维人脸模型,并对汉语文本进行了系统的分析,归纳了汉语发音口型中的协同发音现象,实现了在连续语流中关键帧模型之间的口型过渡,最后设计实现了本文中汉语文本驱动的人脸动画演示系统。其主要内容如下:(1)在阐述了MPEG-4标准动画原理的基础上,选取特定人脸作为系统的叁维人脸模型;设计了汉语文本驱动人脸动画演示系统的总体框架,分析了实现文本驱动叁维动画系统的难点以及本文研究实现的重点。(2)讨论了标准人脸和特定人脸的叁维人脸建模的优缺点,选用了基于形变模型的叁维人脸重建方法,并选择单张正面人脸图片标定特征点,与形变模型的原始二维图像进行匹配,通过求解最小欧氏距离,得到重建模型的二维人脸图像,再将纹理映射到叁维网格模型上,得到个性化的叁维人脸模型。(3)通过分析汉语输入文本,对应查找汉语拼音对照表,得到输入汉字的拼音表示。并总结了汉语语音的发音规则,将汉语拼音的基本口型依据视位的不同分成了12类,并生成相应的叁维口型关键帧。(4)分析讨论了人在说话过程中普遍存在的协同发音问题,通过分析基本元音、辅音发音口型之间的相互影响程度,对前后发音口型关键帧设置权值,在关键帧动画之间插入过渡帧,使得各关键帧口型之间的过渡更加自然。(5)完成了本文汉语驱动的人脸动画演示系统的功能设计,采用基于OpenGL库的VC++6.0编程实现了以汉语文本作为驱动,将输入文本转换成汉语拼音音子的叁维人脸动画演示系统。(本文来源于《武汉理工大学》期刊2013-04-01)
林凡[9](2012)在《基于文本驱动的人脸表情动画系统》一文中研究指出人脸表情动画是计算机图形学的重要研究领域之一,在影视和游戏中的虚拟人的应用促进了它的发展,它主要研究若干种典型表情的产生以及利用已有表情产生中间过渡表情。本文主要介绍了表情动画的研究现状,并且设计实现了基于文本驱动的人脸表情变化系统。(本文来源于《计算机光盘软件与应用》期刊2012年15期)
杜鹏,房宁,赵群飞[10](2012)在《基于汉语文本驱动的人脸语音同步动画系统》一文中研究指出为解决动画流与语音流的同步问题,设计并实现一种人脸语音同步动画系统。将所有中文音素分为16组中文可视音素,并用输入的人脸图像合成对应的关键帧,分析输入文本得到中文可视音素序列和动画的关键帧序列,将该关键帧序列与语音流对齐,在关键帧之间插入过渡帧的同时,播放语音流和动画流,以实现人脸语音同步动画。实验结果表明,该系统能产生符合人们视觉和听觉感受的人脸语音同步动画。(本文来源于《计算机工程》期刊2012年13期)
文本驱动论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
对于股票市场预测问题,除了仅仅考虑股票价格序列,利用例如推特等社交媒体的即时短文本进行股价趋势预测可能会得到更理想的效果。目前在这一领域许多时间序列建模方法已经被尝试和探索,如时间序列自回归预测。然而,由于种种因素,如依赖于情感分析、股票价格时序数据和社交文本序列之间缺乏有效的关联和融合等,极大地影响了最终的预测效果。出于解决这些问题的考虑,本文首先提出了一个成对循环神经网络。利用带标签的隐含狄利克雷分布模型以序列中每天的推特集合为建模对象,依据每个股票的词分布和一个标注的词的情感字典,获取每支股票的主题情感分数,作为更加细粒度的情感特征序列表示,代替原先的股票二值化价格特征,并建立一个长短时记忆网络对其建模。同时,以推特的向量表示作为文本基本输入单元,建立一个两层的长短时记忆网络对社交文本数据进行建模,在上层模型中进一步融合两种不同模态的数据。为缓解社交文本噪声问题对于价格趋势预测的影响,本文进一步提出了一个新颖的基于注意力的跨模态混合循环神经网络。结构上主要有两块模块组成。一部分利用了一个两阶注意力循环神经网络获取不同股票的价格趋势向量表示。另一部分利用了长短时记忆网络单元建模以天为单位表示的社交文本向量。这两部分以以下两种方式紧密地结合起来:1)通过采用一个跨模态的注意力机制,第一个模块得到的价格序列表示被用于选择与股价趋势更相关的社交文本,2)在模型上层,整合文本和股价序列表示。本文爬取了时间跨度为一年的推特文本数据和雅虎金融上的股价数据。通过在真实数据集上的综合实验可以证明,成对循环神经网络结合和两种模态数据,并利用神经网络进行了进一步融合,产生了比较明显的预测提升。而基于注意力的跨模态混合循环神经网络中,证明了合理地进行多模态数据的表示和融合,有效地过滤对预测没有帮助的社交文本噪声,能够产生很好的预测效果和投资回报。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
文本驱动论文参考文献
[1].王永强,韩磊.基于文本驱动的动画素材自动检索系统设计[J].现代电子技术.2018
[2].吴汇哲.社交文本驱动的混合深度序列股票预测模型[D].华东师范大学.2018
[3].周荣.“培养文化意识:以文本驱动方法为依据进行高效语言教学实践”翻译项目报告[D].四川外国语大学.2016
[4].王跃.基于汉语协同发音模型的文本驱动叁维口型动画合成研究[D].山东财经大学.2014
[5].陶京京.文本驱动的3D可视语音合成技术研究[D].长春理工大学.2014
[6].王森.语音文本驱动的中国手语动画合成[D].北京工业大学.2013
[7].郑文思.藏语夏河话文本驱动唇形参数合成系统[D].西北民族大学.2013
[8].李蓓.汉语文本驱动的人脸动画演示系统设计[D].武汉理工大学.2013
[9].林凡.基于文本驱动的人脸表情动画系统[J].计算机光盘软件与应用.2012
[10].杜鹏,房宁,赵群飞.基于汉语文本驱动的人脸语音同步动画系统[J].计算机工程.2012