导读:本文包含了文本情感识别论文开题报告文献综述及选题提纲参考文献,主要关键词:情感识别,声学特征,韵律特征,文本特征
文本情感识别论文文献综述
冯亚琴,沈凌洁,胡婷婷,王蔚[1](2019)在《利用语音与文本特征融合改善语音情感识别》一文中研究指出情感识别在人机交互中具有重要意义,为了提高情感识别准确率,将语音与文本特征融合。语音特征采用了声学特征和韵律特征,文本特征采用了基于情感词典的词袋特征(Bag-of-words,BoW)和N-gram模型。将语音与文本特征分别进行特征层融合与决策层融合,比较它们在IEMOCAP四类情感识别的效果。实验表明,语音与文本特征融合比单一特征在情感识别中表现更好;决策层融合比在特征层融合识别效果好。且基于卷积神经网络(Convolutional neural network,CNN)分类器,语音与文本特征在决策层融合中不加权平均召回率(Unweighted average recall,UAR)达到了68.98%,超过了此前在IEMOCAP数据集上的最好结果。(本文来源于《数据采集与处理》期刊2019年04期)
宋绪靖[2](2019)在《基于文本、语音和视频的多模态情感识别的研究》一文中研究指出随着人工智能技术的不断发展,作为情感计算领域一个重要的分支,情感识别越来越成为一个研究热点。由于单模态情感识别存在识别率低、鲁棒性差的缺点,研究人员对情感识别也逐渐从单模态情感识别过渡到多模态情感识别。通过引入更多模态的信息,来捕捉模态之间的互补信息,从而提高最后的识别效果。如何将不同模态的信息进行有效的融合是多模态情感识别的关键,同时也是多模态情感识别的一大难点。本文主要基于文本、语音和视频叁个模态的信息在特征层融合的基础上来进行多模态情感识别的研究,并针对多模态情感识别关键技术进行了探索和改进。本论文的主要研究内容为:(1)研究适用于单个模态上有效的特征提取方法。对于文本模态主要采用双向LSTM网络进行文本情感特征的提取,有效利用文本的前后语义与语序信息,使提取到的文本情感特征含有重要的时序信息;对于语音模态采用卷积神经网络进行语音特征的提取,并使用开源工具openSMILE来提取语音信号的基础特征,两者相融合作为最后的语音情感特征,使语音特征更加齐全;对于视频模态采用叁维卷积神经网络模型提取视频情感特征,和普通卷积神经网络模型相比,引入了时间维度,从而使提取的情感特征含有丰富的前后时序信息,同时引入人脸关键点特征作为辅助特征,从而使提取的视频情感特征更加丰富有效。(2)研究多模态情感信息的融合方式。详细分析了当前普遍使用的直接级联的特征融合方式,提出其存在的问题,并针对直接级联融合方式中存在的缺点进行了改进,最后提出了基于注意力机制的特征层融合方式。该方法使单个模态的特征通过学习得到一个符合数据集分布的影响权重,然后在进行特征融合的时候采用加权融合,使融合得到的特征更加有效,从而提高识别效果。(3)在基于注意力机制的特征层融合方式的基础上进一步研究,提出引入残差思想的特征层融合方式。由直接去优化映射函数改为去优化残差,使引入残差后的映射对输出的变化更敏感,从而更好的优化网络结构,使网络结构的表达能力更强,进一步提升最后的情感识别效果。(4)将提出的基于注意力机制的融合方式和引入残差思想的融合方式应用到多模态情感识别任务上,并在公开数据集上进行实验验证,通过实验结果分析讨论,验证我们提出的特征融合算法的有效性。(本文来源于《山东大学》期刊2019-05-25)
张力行,叶宁,黄海平,王汝传[3](2018)在《基于皮肤电信号与文本信息的双模态情感识别系统》一文中研究指出人机交互离不开情感识别,目前无论是单模态的情感识别还是多生理参数融合的情感识别都存在识别率低,鲁棒性差的问题.为了克服上述问题,故提出一种基于两种不同类型信号的融合情感识别系统,即生理参数皮肤电信号和文本信息融合的双模态情感识别系统.首先通过采集与分析相应情感皮肤电信号特征参数和文本信息的情感关键词特征参数并对其进行优化,分别设计人工神经网络算法和高斯混合模型算法作为单个模态的情感分类器,最后利用改进的高斯混合模型对判决层进行加权融合.实验结果表明,该种融合系统比单模态和多生理参数融合的多模态情感识别精度都要高.所以,依据皮肤电信号和文本信息这两种不同类型的情感特征可以构建出识别率高,鲁棒性好的情感识别系统.(本文来源于《计算机系统应用》期刊2018年11期)
胡婷婷,沈凌洁,冯亚琴,王蔚[4](2018)在《语音与文本情感识别中愤怒与开心误判分析》一文中研究指出在语音情感识别的研究中发现,愤怒与开心之间通过语音信息较难区分,文中将结合文本信息对这两种情感进行区分,以提高其识别率。使用IEMOCAP与SAVEE数据集中语音数据提取声学特征,分别使用卷积神经网络与支持向量机训练分类器模型,对中性、愤怒、开心、悲伤四类情感进行识别,对情感之间误判情况以及识别准确率进行分析,验证了语音通道信息对于愤怒与开心容易产生误判的结论。为解决此问题,加入文本信息,训练文本识别模型,有效解决了愤怒与开心的误判情况。同时发现两通道信息对情感识别的不同影响,在声音中包含更多利于识别愤怒和悲伤情感的信息;在文本中包含更多利于识别中性与开心情感的信息。声音情感识别中,愤怒/开心之间易误判,愤怒/悲伤之间易区分。文本情感识别中,愤怒/开心之间易区分,愤怒/悲伤之间易误判。声学与文本特征融合后,情感识别准确率相比单一通道明显提高,两通道信息对于情感识别具有互补作用。(本文来源于《计算机技术与发展》期刊2018年11期)
苏兵杰,周亦鹏,梁勋鸽[5](2018)在《基于XGBoost算法的电商评论文本情感识别模型》一文中研究指出由于电子商务网站上商品评论数量激增,对商品评论信息进行数据挖掘和情感分析显得尤为重要。文中立足于电子商务平台上生鲜产品的评论文本,将情感识别问题抽象为分类问题,结合TF-IDF和卡方检验方法提取文本特征,利用XGBoost算法训练分类器建立商品评论文本的情感识别模型,将海量的商品评论数据转换为人们需要的信息。(本文来源于《物联网技术》期刊2018年01期)
陈炜亮[6](2017)在《音频文本混合的歌曲深度情感识别》一文中研究指出近20年来,随着计算机科学技术的快速发展,人工智能已经成为计算机技术中最热点的领域。情感计算是人工智能科学的一个重要组成部分,通过情感计算,让机器能够学习并且模拟人类的情感已经成为人工智能发展的一个重要目标。语音情感是情感计算的一个重要研究方向,而音乐是人类生活中表达情感的重要方式,是最能够让人受到情感影响的语音表现形式,音乐中蕴含着大量丰富的情感信息。研究发现,音乐的情感信息不仅仅包含在歌曲的旋律中,歌曲的歌词中也蕴含着情感信息,歌曲的旋律和歌词的文本结合才能表现出一首歌曲完整的情感特性。针对歌曲情感的分类,本文提出一种基于多模态的两次融合的深度学习情感分析方法,对音乐进行分析时将音乐分成歌曲音频和歌词文本两个方面,分别提取歌曲音频的两种不同音频特征MFCC与MIDI,以及歌词的文本特征。融合歌曲音频的MFCC和MIDI两种不同特征后,再将融合后歌曲音频融合特征和歌词文本特征进行第二次融合,使用这样两次融合的方法来产生歌曲的融合情感特征。通过这种两次融合的方法获得歌曲的融合情感特征后,对歌曲融合情感特征使用限制波尔兹曼机(RBM)和卷积神经网络(CNNs)进行优化和分类,并在歌曲情感语料库上进行训练和测试。经过多组实验表明,基于多模态融合深度学习模型获得音乐情感特征,进而进行情感分类,能够更准确的判断音乐的情感,更加深层次的体现出音乐蕴含的情感信息和情感倾向。(本文来源于《合肥工业大学》期刊2017-04-01)
郝帅[7](2015)在《基于词典扩增和修饰结构的文本情感识别研究》一文中研究指出情感计算是自然语言处理领域中一个热门的研究方向,并且随着网络资料量的累积,对于巨量文本的情感计算也已经成为大数据研究领域的一个重要分支。以往的绝大部分的研究是将情感划分成不同的类别,之后再判断文本的情感属于哪种提前划分好的类别。然而我们并不能准确的划分出情感有多少种类别,于是本文使用一种多维度模型,将文本的情绪转化成两组连续的分值加以量化。情感可以转化成两个维度分别是Valence(表示情感的正负程度)和Arousal(表示情感的平静与激动程度),Valence和Arousal的值在一至九连续分布。通过这种方式可以将情感映射到二维平面上从而避免需要准确界定情感类别的问题。本文采用字典法,计算文本的Valence-Arousal值。字典包含了有标记Valence和Arousal的情绪词,通过识别文本中的情绪词来计算全文的Valence-Arousal值。然而,字典法也存在两个主要的缺点:一、字典中所包含的情绪词有限,大量人工标记的成本又太高;二、文本中情感词往往会与修饰语一起出现如“高兴”当有“不”修饰时情绪的Valence和Arousal值会有很大的变化。针对以上问题本文提出了一种基于词相似度的回归模型用来自动扩增情绪字典的方法以弥补情绪词有限的问题,并且构建了一个可量化的修饰语影响模型以计算修饰语对情绪词分值的影响。由于没有中文的Valence-Arousal字典和语料库,本文花费了大量的时间完成了一个包含1653词的中文Valence-Arousal字典以及一个包含720篇文本的原始语料库作为研究的基础。(本文来源于《南昌大学》期刊2015-05-26)
李承程[8](2015)在《基于深度学习的文本语音耦合情感识别方法研究》一文中研究指出人机交互领域研究是目前智能技术应用研究的重要方向之一,自然语言理解是人机交互的重要完成途径,其中情感识别技术对于实现自然人机交互起到至关重要。同时随着多交叉学科以及计算机科学相应的模式识别技术共同发展,情感识别研究任务,作为人工智能中的一个重要领域在理论研究和实际应用上都获得了较大的发展。在人机交互过程中,基于面部表情的情感识别研究中主要面临的问题为信号采集以及信息处理,这种方法对硬件设备的有着较高要求。语音的获取以及对话内容可以通过同种路径获取,文本信息属于语音承载内容,两者在处理上具有同一性,因此基于语音信号情感识别方法与基于文本信号处理方法可以归类实现,在此研究背景下,考虑单独处理语言和文本上的局限性,本文将结合语言和文本两种模态进行情感识别任务。本文的主要研究内容和工作有:1.语音情感数据库的整理工作,本文将移动客服通话数据作为实验数据,对语音数据进行情感标记处理以及文本识别处理,并对整通话按句子切分处理,从而完成对语音数据库进行整合工作。2.基于文本的情感识别研究。本文采用多种统计方法以及语义层特征提取方法对文本内容进行特征提取,同时考虑了短文本在情绪表达时的特点,并结合文本形态不同,从保存信息完整性角度出发,尽可能的提取文本中所表达的情感信息。3.语音情感识别的研究工作。根据语音情感表达特征,在特征层面,将对语音信号进行两种不同的特征提取(基于韵律学的情感特征和基于普的情感特征提取)。4.基于深度学习的双模态特征,搭建深度架构,融合两模态特征进行模型训练,利用不同信息融合方法对两种信息进行耦合,通过设计对比实验,验证本论文所提出方法的可行性。(本文来源于《合肥工业大学》期刊2015-04-01)
史伟,王洪伟,何绍义[9](2015)在《基于KBANN的文本情感识别研究》一文中研究指出文章运用基于关键词和机器学习两种方法构建了一种混合情感识别系统。基于关键词方法是一种传统的情感识别方法,它运用情感关键词来确定文本的情感状态。如果文本段落中存在相应的情感关键词,那这种方法就会非常有效和正确。然而,在有些文本中并不存在相应的情感关键词去确定情感状态。因此,针对这种没有情感关键词存在的状况,本文提出了基于KBANN的方法,通过与第叁方信息构造的隐性知识推断出文本的情感状态。最后,通过实验发现本文提出的系统相较于以前的一些方法具有更高的准确率。(本文来源于《情报理论与实践》期刊2015年03期)
彭蔚喆[10](2014)在《面向中文微博文本的情感识别与分类技术研究》一文中研究指出作为时下最流行的社交媒体之一,微博具有信息传播快、信息量大、内容欠规范等显着特点,已发展成为互联网信息交流共享的重要平台之一。当前,对微博文本的情感识别与分类研究逐渐成为自然语言处理领域中一个新的热点研究方向及难点所在,其研究成果对于企业及时洞悉用户对产品或服务的使用反馈、对获取社会民众的民意、舆情监测等应用均具有重要的现实意义。本研究致力于初步解决面向中文微博文本的主观句识别与情感分类问题,具体研究内容如下:一、通过分析微博文本,总结出微博文本的若干结构特征,并构建表情情感库。在分析微博文本中常出现的重复标点符号的基础上,整理出辅助识别情感分类的标点符号情感库。将情感词汇本体库和表情情感库、标点符号情感库相结合,构建了中文微博文本的情感特征库。二、分别使用词频统计、期望交叉熵、TF-IDF、以及求TF-IDF的方差等方法对微博文本进行情感特征抽取,其实验结果显示:基于方差与TF-IDF加权结合的特征识别与抽取方法取得了最好的结果。叁、关于微博文本的情感识别与分类,我们首先判断微博文本的主、客观性,使用朴素贝叶斯方法和支持向量机方法来识别主观句,实验结果显示:朴素贝叶斯方法对主观句的识别效果更好。此后,对属于主观句的微博文本我们进行了情感分类研究,使用基于支持向量机的一对一分类法和一对其余分类法,其实验结果显示:基于支持向量机的一对一分类法效果更好。四、基于以上提出的情感特征抽取方法及情感识别与分类方法,我们构建了相应的原型系统。通过在公开评测数据集上的一系列实验验证了本文所提方法的可行性和有效性。(本文来源于《华中师范大学》期刊2014-05-01)
文本情感识别论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
随着人工智能技术的不断发展,作为情感计算领域一个重要的分支,情感识别越来越成为一个研究热点。由于单模态情感识别存在识别率低、鲁棒性差的缺点,研究人员对情感识别也逐渐从单模态情感识别过渡到多模态情感识别。通过引入更多模态的信息,来捕捉模态之间的互补信息,从而提高最后的识别效果。如何将不同模态的信息进行有效的融合是多模态情感识别的关键,同时也是多模态情感识别的一大难点。本文主要基于文本、语音和视频叁个模态的信息在特征层融合的基础上来进行多模态情感识别的研究,并针对多模态情感识别关键技术进行了探索和改进。本论文的主要研究内容为:(1)研究适用于单个模态上有效的特征提取方法。对于文本模态主要采用双向LSTM网络进行文本情感特征的提取,有效利用文本的前后语义与语序信息,使提取到的文本情感特征含有重要的时序信息;对于语音模态采用卷积神经网络进行语音特征的提取,并使用开源工具openSMILE来提取语音信号的基础特征,两者相融合作为最后的语音情感特征,使语音特征更加齐全;对于视频模态采用叁维卷积神经网络模型提取视频情感特征,和普通卷积神经网络模型相比,引入了时间维度,从而使提取的情感特征含有丰富的前后时序信息,同时引入人脸关键点特征作为辅助特征,从而使提取的视频情感特征更加丰富有效。(2)研究多模态情感信息的融合方式。详细分析了当前普遍使用的直接级联的特征融合方式,提出其存在的问题,并针对直接级联融合方式中存在的缺点进行了改进,最后提出了基于注意力机制的特征层融合方式。该方法使单个模态的特征通过学习得到一个符合数据集分布的影响权重,然后在进行特征融合的时候采用加权融合,使融合得到的特征更加有效,从而提高识别效果。(3)在基于注意力机制的特征层融合方式的基础上进一步研究,提出引入残差思想的特征层融合方式。由直接去优化映射函数改为去优化残差,使引入残差后的映射对输出的变化更敏感,从而更好的优化网络结构,使网络结构的表达能力更强,进一步提升最后的情感识别效果。(4)将提出的基于注意力机制的融合方式和引入残差思想的融合方式应用到多模态情感识别任务上,并在公开数据集上进行实验验证,通过实验结果分析讨论,验证我们提出的特征融合算法的有效性。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
文本情感识别论文参考文献
[1].冯亚琴,沈凌洁,胡婷婷,王蔚.利用语音与文本特征融合改善语音情感识别[J].数据采集与处理.2019
[2].宋绪靖.基于文本、语音和视频的多模态情感识别的研究[D].山东大学.2019
[3].张力行,叶宁,黄海平,王汝传.基于皮肤电信号与文本信息的双模态情感识别系统[J].计算机系统应用.2018
[4].胡婷婷,沈凌洁,冯亚琴,王蔚.语音与文本情感识别中愤怒与开心误判分析[J].计算机技术与发展.2018
[5].苏兵杰,周亦鹏,梁勋鸽.基于XGBoost算法的电商评论文本情感识别模型[J].物联网技术.2018
[6].陈炜亮.音频文本混合的歌曲深度情感识别[D].合肥工业大学.2017
[7].郝帅.基于词典扩增和修饰结构的文本情感识别研究[D].南昌大学.2015
[8].李承程.基于深度学习的文本语音耦合情感识别方法研究[D].合肥工业大学.2015
[9].史伟,王洪伟,何绍义.基于KBANN的文本情感识别研究[J].情报理论与实践.2015
[10].彭蔚喆.面向中文微博文本的情感识别与分类技术研究[D].华中师范大学.2014