人脸情感识别论文-胡秀丽

人脸情感识别论文-胡秀丽

导读:本文包含了人脸情感识别论文开题报告文献综述及选题提纲参考文献,主要关键词:Gabor小波变换,分形维,支持向量机

人脸情感识别论文文献综述

胡秀丽[1](2019)在《基于支持向量机的人脸情感识别》一文中研究指出提出了一种用支持向量机(SVM)对人脸情感特征进行分类的算法。首先对人脸库图像进行分割,将有表情特征丰富的部分分割出来,即将一张脸分割为眉毛眼睛部分和嘴巴部分,然后对其进行归一化处理,最后为了能精确细化,将分割的图片进行网格化处理,并对每个网格计算Gabor小波特征,从不同基频和角度获取有用特征,计算每个网格图像的分形维数,利用编码支持向量机对其分类,分析比较了不同测试者7种基本表情的识别效果。(本文来源于《电脑编程技巧与维护》期刊2019年09期)

路婷婷[2](2018)在《基于语音和人脸表情的多模态情感识别算法研究》一文中研究指出自然人机交互技术是当前计算机应用技术研究的重要方向,情感的自动识别是实现自然人机交互的关键技术之一。考虑到卷积神经网络可以同时进行图像特征提取和模式分类,且局部连接和权值共享这两大机制可以减少训练参数,因此,在对卷积神经网络理论进行深入研究的基础上,为避免传统方法中特征提取等复杂过程,本文将卷积神经网络应用于情感识别领域。本文基于卷积神经网络提出一种新的可以分别用于语音情感识别和人脸表情识别的算法,然后提出一种多模态融合的情感识别算法。本文主要研究内容如下:(1)卷积神经网络理论的研究。分析了卷积神经网络的基本原理及参数学习算法,为本文将卷积神经网络与情感识别相结合提供理论基础。(2)提出一种新的基于声谱图和卷积神经网络的语音情感识别的算法。由于声谱图是能够反映语音时频特征的二维图像,为了解决传统识别算法中特征提取复杂以及特征质量不佳等问题,提出将声谱图作为卷积神经网络的输入数据。利用卷积神经网络对声谱图特征进行自动学习,实现对声谱图端到端的处理,进行有监督学习和训练以得到相应的网络模型。通过在CASIA汉语情感语料库和德国柏林语料库上分别进行实验,对应的语音情感识别率分别可达到79.6%和77.8%,表明该算法的可行性。(3)提出一种融合语音和人脸表情的情感识别算法。由于人类情感的表达是通过多种形式同时进行的,单一形式的情感识别具有一定的局限性,故本文利用不同模态之间的互补性,提出一种基于语音和人脸表情进行多模态情感识别的算法。即利用卷积神经网络自动学习人脸表情和声谱图的特征,用经过训练的网络模型对测试样本进行识别,得到相应的识别结果,然后进行决策级融合求其最终识别结果。在e NTERFACE’05音视频多模态情感数据库上进行融合实验,识别结果最优可达84.8%,识别系统的整体性能得到一定改善。(本文来源于《西北大学》期刊2018-06-01)

闫静杰,卢官明,李海波,王珊珊[3](2018)在《基于人脸表情和语音的双模态情感识别》一文中研究指出在未来的人工智能领域中,计算机的情感识别能力将扮演越来越重要的角色。针对人脸表情和语音的双模态情感识别,文中提出了一种基于稀疏典型相关分析的特征融合方法。首先,分别提取人脸表情和语音两个模态的情感特征,然后采用稀疏典型相关分析方法对两个模态的情感特征进行融合,最后采用K近邻分类器进行情感识别。实验结果表明文中提出的基于稀疏典型相关分析的双模态情感识别方法能够比语音单模态和人脸表情单模态情感识别取得更高的识别率。(本文来源于《南京邮电大学学报(自然科学版)》期刊2018年01期)

韩金秋[4](2017)在《基于人脸表情特征与语音特征融合的情感识别》一文中研究指出情感识别在人们的社会交往过程中具有重要作用,人机交互领域的情感识别研究目标是使计算机具有“感知”的能力,通过确定人的情感状态,最终实现更加自然友好的交互。最初情感识别的研究主要集中在单一情感特征识别方面,随着研究的不断深入,人们发现单一模态的识别具有局限性,来自不同渠道的情感特征有一定的互补性,所以基于多种模态特征的情感识别成为研究的热点。而人类主要通过语音信息和表情信息来传达情感,因此本文主要研究基于人脸表情特征和语音特征融合的情感识别,将混合概率典型相关分析MPCCA应用在人脸表情特征和语音特征融合当中,并且将线性判别分析的思想引入到MPCCA中,提出了MDPCCA方法,弥补了原始CCA算法只能处理线性问题的缺点,同时增加了不同类别样本特征之间的差异性,提高了情感识别效果。本文首先介绍了视频中人脸表情特征和语音特征的提取,对于人脸表情特征,重点介绍了基于LLC编码改进的BOW模型图像集合表示方法,并通过仿真实验选取模型中各项最优参数;对于语音情感特征,介绍了MFCC和LPCC两种语音特征,将其融合的结果作为语音情感特征,然后对基于单一人脸表情特征和语音特征的情感识别结果进行了分析。其次,在提取了人脸表情特征和语音情感特征后,考虑到这两种特征的内在联系,提出采用基于典型相关分析CCA方法对两种模态的特征进行融合,通过仿真实验,验证了融合多种特征能够得到更高的情感识别率。针对CCA算法在融合方面的局限性,本文从基本的CCA模型出发,从概率密度估计模型考虑,将混合概率典型相关分析MPCCA用在了特征融合中;然后引入线性判别LDA思想,提出了混合判别概率典型相关分析MDPCCA。最后,为了验证本文所提出的融合算法的有效性,在SAVEE视觉语音情感数据库上对不同融合方法进行情感识别的实验对比,融合方法包括:串行融合、典型相关分析CCA、混合概率典型相关分析MPCCA、混合判别概率典型相关分析MDPCCA,通过对不同方法在整体情感识别结果和单一某种情感识别上的结果进行对比分析,验证了算法的有效性,并在此基础上设计了基于MATLAB GUI的情感识别系统。(本文来源于《哈尔滨工程大学》期刊2017-04-01)

刘元震[5](2016)在《基于深度学习的人脸面部情感识别的研究》一文中研究指出随着人工智能的发展,情绪识别的应用场景越来越广泛,典型的有广告效果评估、产品评测、视频分析、医疗康复、安全驾驶以及情感机器人等。目前,情绪识别在人机交互领域发展特别快,尤其是在安全驾驶、情感机器人应用上,让机器更好的理解人、更加智能和人性化的为人类服务是近期人工智能革命的根本。机器逐渐学习到足够的情感认知能力以后,就可以在人机交互中对用户体验进行一系列升级,最终,使机器能像普通人一样融入人类生活。情绪识别广义上可以通过表情、语音语调或者脑电捕捉等进行。目前技术上最成熟、得到广泛应用的是表情识别技术,也就是基于计算机视觉算法,识别人脸的表情动作和推断喜怒哀乐等基本情绪。因为不同人表达感情程度存在偏差,自动面部表情识别(Facial Expression Recognition,FER)在计算机视觉中仍然是一个具有挑战性和有趣的问题。尽管在开发用于FER的各种方法方面做出了努力,但是当处理未标注的或在自然环境中捕获的那些图片时,现有的方法缺乏普适性。大多数现有方法基于手工特征(例如梯度直方图,局部二值模式和Gabor特征描述算子),然后结合分类器(如支持向量机),其中分类器的超参数被优化以在单个数据库或类似数据库的小集合中给出最佳识别精度。不同特征描述算子对不同背景下的表情图像的表征能力存在偏差,必须针对特定背景图像找到最合适的特征描述算子,这大大增加了工作复杂度。而深度学习可以自动学习面部特征,并且属于端到端模型,即特征学习和分类在一个模型下完成。本文基于谷歌提出的inception结构提出了一个深层神经网络架构,以解决在不同背景图像需要寻找不同特征描述算子的问题,并精简模型使之能够成功应用到移动端。具体来说,我们的网络由两个卷积层组成,每个层之后是最大池,紧接着是叁个inception层。网络是单个组件架构,其将注册的面部图像作为输入并将其分类为六个基本表情或中性表情中的任一个。本文对七个公开可用的面部表情数据库(Multi PIE、MMI、CK+、DISFA、FERA、SFEW和FER2013)进行了全面的实验。主要对比分析了基于传统特征的学习方法和基于深度学习方法在不同数据库上的泛化能力,实验表明基于深度学习的方法泛化能力要好于基于传统特征的学习方法;此外,还与目前主流的模型诸如VGG、Google Net、Res Net等模型在表情识别任务上做了对比进一步说明了基于inception的结构在保证表情识别准确率的前提下,可以尽量精简模型大小。(本文来源于《哈尔滨工业大学》期刊2016-12-01)

穆静,陈芳,王长元[6](2015)在《人脸面部表情图像的隐马尔科夫建模及情感识别》一文中研究指出文中旨在使用隐马尔科夫模型对人脸面部表情图像进行建模以对人脸表情中的情感进行识别,采用子窗口对人脸面部表情图像进行采样,利用离散余弦变换提取了所需要的特征向量,通过对人脸面部图像进行隐马尔科夫建模,使用获得的特征向量作为观测向量对人脸面部图像的隐马尔科夫模型进行训练.使用训练后的隐马尔科夫模型对JAFFE人脸图像测试集中的人脸表情图像进行情感识别.测试结果表明:隐马尔科夫模型用于人脸面部表情图像的情感识别有效可行,其总体正确识别率达到87.3%.(本文来源于《西安工业大学学报》期刊2015年09期)

谢坷珍[7](2015)在《融合人脸表情和语音的双模态情感识别研究》一文中研究指出传统的人机交互过程一般通过鼠标、键盘等方式进行,这种只基于逻辑的方式无法使机器理解和适应人的情感。为计算机加入情感识别功能,可使其像人一样去理解各种情感特征并作出相应的反馈,使得人机交互过程更加友好、自然,以达到更好的用户体验,因此,情感识别近年来备受研究者的关注。情感是人际通信交流的重要手段,在交流互动的过程中获取对方的情感信息并进行分析,有助于更好地理解对方,可以使沟通更顺利、有效地进行。人在交流过程中,其语音、表情和姿势都是沟通内容的一部分,都包含着情感信息,研究者们对人脸表情识别、语音情感识别等单模态情感识别进行了广泛研究。单模态情感识别采用的情感特征信息比较单一,在情感识别中有一定的局限性,本文在分析和总结现有理论和研究的基础上,提出了融合人脸表情和语音的双模态情感识别的研究。本文的主要工作包括以下叁个方面:(1)基于图像的人脸表情识别本文同时采用彩色和深度人脸表情图像来获得更多的人脸表情信息,并根据面部点的位置关系进行粗略的面部姿势的评估。对人脸表情图像进行预处理,并对彩色图像用Gabor小波进行特征提取,对深度图像用深度值统计分布的方法进行特征提取,将两者特征联合在一起作为识别时用的特征并用PCA方法对特征进行降维。最后,使用SVM实现表情训练和分类。实验结果验证本文提出的方法在人脸表情识别中取得了较好的效果。(2)基于隐马尔可夫模型的语音情感识别本文对语音信号进行预处理,包括预加重、分帧、和加窗处理,然后对其提取特征,在声学参数中选取语速、基频、能量、和MFCC、共振峰,并将这些参数的联合特征作于语音的情感特征。最后,使用HMM模型进行训练情感识别。实验表明,本文提出的方法在语音情感识别中取得了较好的结果。(3)融合人脸表情和语音的双模态情感识别本文采用决策层融合的方法,将人脸表情识别和语音情感识别进行融合,分别根据求和规则和求积规则进行双模态情感识别实验,结果表明本文提出的方法明显地提高了识别性能。(本文来源于《中国海洋大学》期刊2015-05-25)

吕长勇[8](2013)在《基于语音与人脸表情信息的情感识别算法研究》一文中研究指出单模态情感识别由于受到单一模态情感特征的限制,识别率并没有得到较大的提高。近年来,多模态情感识别突破了这一限制,在情感识别过程中,引入了多种模态的情感特征进行融合,从而在识别率上有了较大的提高。目前,多模态情感识别的方法和思路主要有判决层融合与特征层融合。本文采用特征层融合的方式,提取人脸表情特征和语音情感特征,然后根据两种模态情感特征的特点,进行特征优化处理,最后设计分类器进行情感的分类。本文选择本课题组自建的情感数据库作为课题研究的数据,该数据库包含语音、表情和脑电叁种模态的情感数据,情感类别有7种,即生气、厌恶、害怕、高兴、中性、悲伤和惊奇。本文的主要研究工作有:(1)语音情感特征提取,本文采用不同的语音特征提取方法(14维特征和74维特征),提取包括短时能量、基音频率、第一共振峰、美尔频率倒谱系数(MFCC)和语音持续时间等特征类别,同时计算了这些特征类别相关的统计参数,并以这些特征作为语音情感特征数据用于情感识别。(2)人脸表情特征提取,本文提出了改进的局部二值模式(LBP)表情特征提取算法主要提取人脸的眼睛和嘴巴两个部位的纹理特征。该算法的目的在于保证表情识别率,同时尽可能地降低特征数据的维数,减少计算量。(3)语音与表情特征的融合,本文根据语音和表情的情感特征,提出了语音与表情特征的直接融合算法和语音与表情特征的融合优化算法。语音与表情特征的直接融合算法主要解决两种模态特征维数上差异;语音与表情特征的融合优化算法考虑两种模态特征的联系与差异,提出先融合,后利用主成分分析(PCA)方法进行降维优化处理,再进行情感分类。(4)双模态情感识别,本文采用支持向量机(SVM)算法进行情感识别的仿真实验。该算法对小样本、非线性分类问题具有很强的分类能力。在SVM参数优化问题中,本文提出了改进的网格搜索参数优化算法,该算法基本思想是先通过基本的网格搜索算法进行粗搜,确定参数的范围,然后再在此范围内进行精搜,找到最优识别率的参数组合。仿真实验验证了上述算法的有效性。(本文来源于《华东理工大学》期刊2013-12-06)

陈鑫[9](2013)在《人脸面部表情的情感识别研究》一文中研究指出随着情感识别在自驾游、案件侦破和游戏产业等领域中应用前景和市场价值的凸显,面部表情作为情感识别中的关键,已成为拟人化新型人机交互模式研究中的关键课题之一。本文针对不同类型的表情图片输入集:单张表情图片和表情图片序列,分别以静态和动态两种不同的方式完成表情识别。针对单张表情图片,本文根据面部特征点的形状和面部特定区域的纹理信息来对待测表情进行分类。首先,通过分析主动外观模型中主要参数的物理意义,发现表情图片适应过程中的形状以及纹理参数可以很好的体现各类表情的个性化信息,利用机器学习分类算法实现以这两参数作为特征的表情分类。然后,通过权衡主动外观模型训练过程中的信息保留量与识别率之间的关系,理解到信息保留量增加的同时还会在表情分类过程中引入噪声信息,需要调整特征向量的维数,即以较低的特征维度获得较高的表情识别率。针对表情图片序列,本文统计分析了表情和特征器官变化的对应关系,在此基础上提取表情特征,而后通过特征选择方法进行特征筛选,最后依靠特征空间变换完成表情分类。首先在统计分析基础上,提取体现各类表情差异性的共性特征,同时加入优化特征使得差异性更加明显;然后使用支持向量机(SupportVector Machine)作属性评估以进一步精简各类表情的共性信息;最终依靠最小二乘方法将特征空间投影到基向量空间实现表情识别。在以上两种类型的表情识别方法中,本文均提取了更适合于人脸表情识别的特征,并且在不损失识别率的条件下,有效地降低了特征维数;同时,本文应用最小二乘方法将特征空间投影到基向量空间实现表情识别。本文的研究角度和方法优化了静态和动态表情识别的效率,并且更具准确性,为表情、声音和动作等结合的跨模态情感识别做出了贡献。(本文来源于《天津大学》期刊2013-11-01)

张石清[10](2012)在《基于语音和人脸的情感识别研究》一文中研究指出情感识别是情感计算领域中的一个重要分支,是当前信号处理、模式识别、人工智能、人机交互等领域的研究热点。由于情感识别是一个多学科交叉的复杂研究课题,尚存在诸多问题有待解决,尤其在特征提取、特征降维、识别方法以及多模态情感信息融合等方面还有待更深入地研究。情感语音和人脸表情是人类表达情感的最主要的两种方式。本论文正是针对基于情感语音和人脸表情的情感识别方面的关键技术做了探索,提出了若干改进算法应用于情感识别。本论文的主要内容为:1.综述了语音情感识别和人脸表情识别两个方面的研究历史及现状,概述了其中的重点和难点,如情感数据库、情感特征提取与降维、以及情感的分类算法等。2.研究适用于语音情感特征数据的非线性降维算法,给出一种改进的监督局部线性嵌入(Improved-SLLE)算法。为了克服SLLE算法的不足,提出一种能够提高SLLE算法所产生的低维嵌入数据的判别力,并具备最优泛化能力的改进SLLE算法。该算法对提取的语音韵律特征和音质特征作非线性降维处理,从而在低维的嵌入特征空间里实现语音情感识别性能的改善。3.研究适用于语音情感特征数据的基于核思想的非线性降维算法,提出一种核判别局部线性嵌入(KDLLE)算法。为了融合核方法和局部线性嵌入(LLE)算法,通过设计一个核判别距离,并在再生核Hilbcrt空间(RKHS)上实现重构误差的最小化,从而提出一种具有判别性质的核判别局部线性嵌入算法。该算法用于语音情感特征数据的非线性降维,不仅取得了比LLE更好的低维可视化效果,而且也表现出优越的语音情感识别性能。4.研究语音情感的连续性动态变化的跟踪技术,提出一种基于“激发维-效价维-控制维(AVD)”叁维连续空间模型的语音情感估计方法。根据情感维度表示理论,情感可定义为叁维连续空间模型(AVD)上的坐标点。每个AVD坐标点就可以唯一地标识某一种离散的情感类型。通过采用回归方法对情感语音的AVD坐标值的连续性变化进行预测估计,从而将针对离散情感的语音情感识别问题转化为针对连续性情感变化的语音情感估计问题,以便达到对语音情感表达的连续性动态变化进行追踪的目的。5.研究基于压缩感知理论的鲁棒性人脸表情识别技术,给出一种基于稀疏表示的人脸表情识别新方法。首先对要识别的受到腐蚀或遮挡的测试样本表情图像寻求其稀疏表示,然后采用压缩感知理论求解其最稀疏的解,最后根据所求取的最稀疏解信息进行表情分类。在提取原始像素、局部二元模式(LBP)与Gabor小波叁种人脸表情特征之后,该方法可用于实现鲁棒性的人脸表情识别。实验结果表明,该方法不仅具有优越的人脸表情分类性能,而且表现出良好的鲁棒性。6.研究融合语音和人脸的多模态情感识别机制。首先分别提取能够反映情感语音和人脸表情的特征参数,然后采用两种多模态信息融合策略:特征层融合和决策层融合,用于实现多模态情感识别。实验结果表明,融合语音和人脸的多模态情感识别性能都要比单模态的性能高。此外,采用product规则的决策层融合所取得的多模态情感识别性能最好。(本文来源于《电子科技大学》期刊2012-09-07)

人脸情感识别论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

自然人机交互技术是当前计算机应用技术研究的重要方向,情感的自动识别是实现自然人机交互的关键技术之一。考虑到卷积神经网络可以同时进行图像特征提取和模式分类,且局部连接和权值共享这两大机制可以减少训练参数,因此,在对卷积神经网络理论进行深入研究的基础上,为避免传统方法中特征提取等复杂过程,本文将卷积神经网络应用于情感识别领域。本文基于卷积神经网络提出一种新的可以分别用于语音情感识别和人脸表情识别的算法,然后提出一种多模态融合的情感识别算法。本文主要研究内容如下:(1)卷积神经网络理论的研究。分析了卷积神经网络的基本原理及参数学习算法,为本文将卷积神经网络与情感识别相结合提供理论基础。(2)提出一种新的基于声谱图和卷积神经网络的语音情感识别的算法。由于声谱图是能够反映语音时频特征的二维图像,为了解决传统识别算法中特征提取复杂以及特征质量不佳等问题,提出将声谱图作为卷积神经网络的输入数据。利用卷积神经网络对声谱图特征进行自动学习,实现对声谱图端到端的处理,进行有监督学习和训练以得到相应的网络模型。通过在CASIA汉语情感语料库和德国柏林语料库上分别进行实验,对应的语音情感识别率分别可达到79.6%和77.8%,表明该算法的可行性。(3)提出一种融合语音和人脸表情的情感识别算法。由于人类情感的表达是通过多种形式同时进行的,单一形式的情感识别具有一定的局限性,故本文利用不同模态之间的互补性,提出一种基于语音和人脸表情进行多模态情感识别的算法。即利用卷积神经网络自动学习人脸表情和声谱图的特征,用经过训练的网络模型对测试样本进行识别,得到相应的识别结果,然后进行决策级融合求其最终识别结果。在e NTERFACE’05音视频多模态情感数据库上进行融合实验,识别结果最优可达84.8%,识别系统的整体性能得到一定改善。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

人脸情感识别论文参考文献

[1].胡秀丽.基于支持向量机的人脸情感识别[J].电脑编程技巧与维护.2019

[2].路婷婷.基于语音和人脸表情的多模态情感识别算法研究[D].西北大学.2018

[3].闫静杰,卢官明,李海波,王珊珊.基于人脸表情和语音的双模态情感识别[J].南京邮电大学学报(自然科学版).2018

[4].韩金秋.基于人脸表情特征与语音特征融合的情感识别[D].哈尔滨工程大学.2017

[5].刘元震.基于深度学习的人脸面部情感识别的研究[D].哈尔滨工业大学.2016

[6].穆静,陈芳,王长元.人脸面部表情图像的隐马尔科夫建模及情感识别[J].西安工业大学学报.2015

[7].谢坷珍.融合人脸表情和语音的双模态情感识别研究[D].中国海洋大学.2015

[8].吕长勇.基于语音与人脸表情信息的情感识别算法研究[D].华东理工大学.2013

[9].陈鑫.人脸面部表情的情感识别研究[D].天津大学.2013

[10].张石清.基于语音和人脸的情感识别研究[D].电子科技大学.2012

标签:;  ;  ;  

人脸情感识别论文-胡秀丽
下载Doc文档

猜你喜欢