交互行为识别论文-姬晓飞,秦琳琳,王扬扬

交互行为识别论文-姬晓飞,秦琳琳,王扬扬

导读:本文包含了交互行为识别论文开题报告文献综述及选题提纲参考文献,主要关键词:RGB视频,关节点数据,卷积神经网路,softmax

交互行为识别论文文献综述

姬晓飞,秦琳琳,王扬扬[1](2019)在《基于RGB和关节点数据融合模型的双人交互行为识别》一文中研究指出基于RGB视频序列的双人交互行为识别已经取得了重大进展,但因缺乏深度信息,对于复杂的交互动作识别不够准确。深度传感器(如微软Kinect)能够有效提高全身各关节点的跟踪精度,得到准确的人体运动及变化的叁维关节点数据。依据RGB视频和关节点数据的各自特性,提出一种基于RGB和关节点数据双流信息融合的卷积神经网络(CNN)结构模型。首先,利用Vibe算法获得RGB视频在时间域的感兴趣区域,之后提取关键帧映射到RGB空间,以得到表示视频信息的时空图,并把图送入CNN提取特征;然后,在每帧关节点序列中构建矢量,以提取余弦距离(CD)和归一化幅值(NM)特征,将单帧中的余弦距离和关节点特征按照关节点序列的时间顺序连接,馈送入CNN学习更高级的时序特征;最后,将两种信息源的softmax识别概率矩阵进行融合,得到最终的识别结果。实验结果表明,将RGB视频信息和关节点信息结合可以有效地提高双人交互行为识别结果,在国际公开的SBU Kinect interaction数据库和NTU RGB+D数据库中分别达到92.55%和80.09%的识别率,证明了提出的模型对双人交互行为识别的有效性。(本文来源于《计算机应用》期刊2019年11期)

徐鹏程[2](2019)在《基于多特征融合的交互行为识别》一文中研究指出随着摄像设备和储存设备的日益普及,每天都会产生大量视频,我们希望计算机能够在尽可能少的人工干预下,自动对视频进行分析。行为识别是视频分析中的重要组成部分,在公共安全、自动驾驶和虚拟现实等领域具有广泛的应用前景,成为视频分析中的一个研究热点。交互行为是生活中一种基本的人类行为,其比一般的个人行为更加复杂,往往有复杂的背景和人物肢体遮挡问题,另外,同一行为的交互者之间往往有较大行为差异,这些问题加大了交互行为识别的难度。本文通过深度学习中的卷积神经网络和循环神经网络相关算法对双人交互行为识别问题加以研究。首先,在详细阐述神经网络和卷积神经网络基本原理的基础上,分别介绍了网络的层级结构中每层的作用、反向传播中参数的更新过程。然后,选用一种深层神经网络模型VGG16对视频帧进行分类。研究发现若用VGG16直接对BIT-Interaction数据集分类,其分类精度很低,因此本文利用镜像翻转和旋转的办法扩充数据集,获得了较高的识别率。另外,为进一步提高识别率,在预处理阶段对原始视频帧进行图像增强处理。实验结果表明,增强后的视频帧在凸显人物特征的同时弱化了背景特征,有着更好的识别效果。最后,在循环神经网络中引入长短期记忆网络(Long Short-Term Memory,LSTM),结合LSTM对隐藏状态的记忆和遗忘的特性,将卷积神经网络中提取到的特征用LSTM进行训练。实验结果表明,在不增加数据集的情况下,其识别精度比单使用卷积神经网络的识别精度高。进一步,针对两种不同网络提取到的不同尺度特征进行融合,综合了两种尺度特征的不同语义信息,再用LSTM训练得到了更高的识别精度。另外,本文还探讨了LSTM层数对识别率的影响。(本文来源于《贵州大学》期刊2019-06-01)

陈昌红,刘园[3](2019)在《基于改进和积网络的双人交互行为识别》一文中研究指出受到视角变化、相机移动、尺度、光线、遮挡等因素的影响,双人交互行为识别的效果往往不太理想。有效地提取特征和合理地建立交互模型是双人交互行为识别与理解的两个重要研究内容。基于深度学习的思想,直接在叁维空间中构建多层神经网络,使用两层卷积迭加独立子空间分析网络提取视频的时空特征。在此基础上,提出了一种基于改进和积网络(sum product networks,SPNs)的双人行为识别算法。通过改进后的LearnSPN结构学习算法学习和积网络的结构和权重,在训练过程中对数据集进行实例划分或者变量划分直至满足划分结束条件,从而实现对双人交互行为的分类。该方法在UT、BIT-Interaction和TV-human交互数据库上进行测试,实验结果证明了该方法对双人交互行为识别的有效性,尤其对背景复杂的TV-human交互数据库效果更好。(本文来源于《计算机技术与发展》期刊2019年10期)

郭炜婷,夏利民,王浩,刘泽宇[4](2019)在《多视角下的交互行为识别》一文中研究指出提出一种基于局部自相似描述符和图集鲁棒性多任务学习的多视图交互行为识别方法。首先,提出了一种组合交互特征表示方法,它既编码了兴趣点局部运动的空间分布,又编码了上下文信息。此外,采用时间金字塔词袋模型描述自相似矩阵的局部特征,减小了观测角度变化对识别的影响,保留了时间信息。为了探索不同交互行为与不同视图之间的潜在相关性,采用图集鲁棒性多任务学习函数学习对应的交互行为识别模型。实验结果表明,该方法在公共数据库CASIA上与其他先进方法相比在交互行为识别中具有良好的识别效果。(本文来源于《信息通信》期刊2019年03期)

徐鹏程,刘本永[5](2019)在《基于图像增强和深层CNN学习的交互行为识别》一文中研究指出针对基于常规特征提取的交互行为识别算法在大样本数据集上难以提取有效特征、浅层卷积神经网络(CNN)分类错误率较高等问题,研究一种基于HSV颜色空间图像增强和深层CNN的改进算法。首先提取视频数据的RGB帧,扩充数据集,在HSV颜色空间下图像增强,然后微调CNN模型的最后一个全连接层和soft-max层,最后将增强后的图像输入到VGG16网络模型中进行学习和识别分类。在BIT-Interaction数据集上做交互行为识别实验,结果验证了所探讨算法在交互行为识别上的有效性。(本文来源于《通信技术》期刊2019年03期)

王佩瑶,曹江涛,姬晓飞[6](2019)在《基于活动曲线模型的双人交互行为识别算法》一文中研究指出针对双人交互行为识别算法中特征维数过高且表述能力不强的问题,提出一种基于活动曲线模型的双人交互行为识别算法。该算法利用活动曲线对前景目标稀疏表示能力强的优点,采用Gabor滤波和Sum-Max Maps的方法得到活动曲线的可变模板,进而对双人交互行为视频中的关键帧进行稀疏表示。该算法中提出利用HOG特征来描述视频序列中每帧图像,然后利用距离极值得到视频的关键帧的新方法。在UT-Interaction数据库上的测试表明,在运动视频的关键帧中提取的活动曲线模型特征简单,具有较好的行为表述能力,得到了理想的双人交互行为的识别准确率,充分验证了稀疏表示算法在双人交互行为识别领域有较好的研究前景。(本文来源于《控制工程》期刊2019年02期)

关百胜[7](2018)在《基于卷积神经网络的双人交互行为识别技术研究》一文中研究指出在智能安防领域中,对双人交互行为识别技术的研究非常重要。虽然目前在双人交互行为识别技术上的研究已经取得了一些研究成果,但是研究的重点是如何准确地识别双人交互行为,提高行为识别的准确率,并没有考虑时间因素,然而在实际应用中,时间因素非常重要。因此本文的研究重点是如何在保证双人交互行为识别准确率的前提下提高行为识别的实时性。本文针对UT-interaction数据集中的握手、拥抱、踢腿、挑逗、推动和打拳六种双人交互行为进行分析。本文的研究思路是采用基于高斯混合模型的背景差法检测运动人体目标,通过卷积神经网络提取双人交互行为特征,并设计双隐层BP神经网络对双人交互行为进行分类,完成算法软件的设计与实现。本文的主要工作包括以下几个方面:(1)采用基于高斯混合模型的背景差法实现运动人体目标检测。基于高斯混合模型的背景差法可以实时地根据环境变化不断更新背景,能够适应动态变换的场景;同时该方法也可以避免噪声、光照等因素的影响。本文通过背景差法实现运动人体目标检测,并将灰度图像转换为二值图像。(2)面向双人交互行为特征提取,改进卷积神经网络ALex Net。在检测到运动人体目标的基础上,本文通过改进后的卷积神经网络ALex Net提取双人交互行为特征,并在实验中通过GPU加速算法模型的训练。同时卷积神经网络的输入是二值图像,因此减少了卷积神经网络卷积和池化操作的计算时间。(3)面向高效分类需求,设计双隐层BP神经网络。本文详细分析了双隐层BP神经网络的设计思路和工作原理,并设计了双隐层BP神经网络。文中没有根据双人交互行为的类别进行分类,而是直接将双人交互行为分为正常行为和异常行为。(4)设计开发双人交互行为识别软件,并通过UT-interaction数据集测试,验证了算法软件准确率与实时性。实验表明,本文提出的双人交互行为识别方法综合考虑了行为识别的准确率和处理时间,行为识别准确率为73.60%,对114帧左右的视频数据识别速度在1s~3s之间。因此本文提出的方法在保证双人交互行为识别准确率的前提下,提高了行为识别的速度,满足系统实时性的要求。(本文来源于《中国科学院大学(中国科学院国家空间科学中心)》期刊2018-06-01)

金壮壮,曹江涛,姬晓飞[8](2018)在《多源信息融合的双人交互行为识别算法研究》一文中研究指出人体及人体的运动均是叁维信息,而传统的基于RGB视频的双人交互行为的特征描述方法由于缺少深度信息导致其特征描述的区分度较低。根据RGB视频和深度视频各自优点和具有的互补特性,提出一种多源信息融合的双人交互行为识别算法。该算法首先采用时空兴趣点和词袋模型结合的方法对RGB视频进行特征表示。然后采用方向梯度直方图对深度视频帧进行特征表示,并引入关键帧统计特征对深度视频进行直方图特征表示。最后,使用最近邻分类器分别对两种视频特征进行分类识别,通过加权融合两类视频的识别概率实现交互行为的识别。实验结果表明,引入深度信息可以大大提高双人交互行为识别的准确率。(本文来源于《计算机技术与发展》期刊2018年10期)

王军,周思超,夏利民[9](2018)在《基于协方差矩阵稀疏表示的交互行为识别方法(英文)》一文中研究指出人体行为识别是计算机视觉和模式识别领域的一个重要研究方向,在监控系统、人机交互、人工智能等方面具有广阔的应用前景。本文提出了一种基于协方差矩阵稀疏表示的交互行为识别方法。首先,对视频中提取的稠密轨迹进行聚类形成不同的轨迹群组,以消除无关轨迹、减少噪声对特征提取的影响。然后通过协方差矩阵对轨迹通道进行特征描述,得到有较强区分度的轨迹通道描述符,该描述符维度更低,并且能够有效解决以往描述符对特征二阶统计量描述不足的问题;利用稀疏表示对特征描述符进行稀疏编码。最后,采用多示例学习进行行为分类。在UT-Interaction数据集与WEB-Interaction数据集上的实验证明了本文方法的有效性。(本文来源于《Journal of Central South University》期刊2018年02期)

左鑫孟[10](2017)在《基于视频的双人交互行为识别与理解算法研究》一文中研究指出双人交互行为识别是计算机视觉方向的重要研究课题,在视频检索、智能家具、安防等方面具有广阔应用前景。但是该研究中存在两个难点问题。一是识别框架问题,传统识别框架很难复用到该研究中,而寻找更好表示交互个体间的内在关联的特征描述方法,也是研究的难点。目前,双人交互行为识别研究主要有基于整体的识别方法和基于个体分割的识别方法。本文针对现有识别方法的内在问题进行了深入研究:首先,针对基于整体的双人交互行为识别无法兼顾识别速度和识别准确率的问题,创新地提出一种基于关键帧特征库统计特征的双人交互行为识别方法。该方法在BOW框架下建立关键帧特征库,并利用统计思想生成一种新的特征描述形式。该算法的优势在于特征简单,无需进行建模,识别效果较好,基本可以实现实时处理。其次,针对基于个体分割的视觉共生方法双人交互行为识别准确性较低的问题,创新地提出了基于视觉共生矩阵序列的双人交互行为识别方法。该方法充分结合共生矩阵表示与概率图模型的各自优势,丰富了视频隐含信息的同时,还增强了不同交互行为的区分度,取得了较好的识别性能。最后,针对交互行为识别框架存在的问题,运用了一种基于分阶段概率融合的双人交互行为识别框架,并创新地将视觉共生矩阵序列融入到该框架,有效解决了交互过程的多样性对算法的适应性的要求。该方法框架结构简单,不仅有效描述了交互内在属性,还避免了遮挡等因素干扰。该方法的识别准确性较高,且可满足实时性需求。(本文来源于《沈阳航空航天大学》期刊2017-02-28)

交互行为识别论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

随着摄像设备和储存设备的日益普及,每天都会产生大量视频,我们希望计算机能够在尽可能少的人工干预下,自动对视频进行分析。行为识别是视频分析中的重要组成部分,在公共安全、自动驾驶和虚拟现实等领域具有广泛的应用前景,成为视频分析中的一个研究热点。交互行为是生活中一种基本的人类行为,其比一般的个人行为更加复杂,往往有复杂的背景和人物肢体遮挡问题,另外,同一行为的交互者之间往往有较大行为差异,这些问题加大了交互行为识别的难度。本文通过深度学习中的卷积神经网络和循环神经网络相关算法对双人交互行为识别问题加以研究。首先,在详细阐述神经网络和卷积神经网络基本原理的基础上,分别介绍了网络的层级结构中每层的作用、反向传播中参数的更新过程。然后,选用一种深层神经网络模型VGG16对视频帧进行分类。研究发现若用VGG16直接对BIT-Interaction数据集分类,其分类精度很低,因此本文利用镜像翻转和旋转的办法扩充数据集,获得了较高的识别率。另外,为进一步提高识别率,在预处理阶段对原始视频帧进行图像增强处理。实验结果表明,增强后的视频帧在凸显人物特征的同时弱化了背景特征,有着更好的识别效果。最后,在循环神经网络中引入长短期记忆网络(Long Short-Term Memory,LSTM),结合LSTM对隐藏状态的记忆和遗忘的特性,将卷积神经网络中提取到的特征用LSTM进行训练。实验结果表明,在不增加数据集的情况下,其识别精度比单使用卷积神经网络的识别精度高。进一步,针对两种不同网络提取到的不同尺度特征进行融合,综合了两种尺度特征的不同语义信息,再用LSTM训练得到了更高的识别精度。另外,本文还探讨了LSTM层数对识别率的影响。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

交互行为识别论文参考文献

[1].姬晓飞,秦琳琳,王扬扬.基于RGB和关节点数据融合模型的双人交互行为识别[J].计算机应用.2019

[2].徐鹏程.基于多特征融合的交互行为识别[D].贵州大学.2019

[3].陈昌红,刘园.基于改进和积网络的双人交互行为识别[J].计算机技术与发展.2019

[4].郭炜婷,夏利民,王浩,刘泽宇.多视角下的交互行为识别[J].信息通信.2019

[5].徐鹏程,刘本永.基于图像增强和深层CNN学习的交互行为识别[J].通信技术.2019

[6].王佩瑶,曹江涛,姬晓飞.基于活动曲线模型的双人交互行为识别算法[J].控制工程.2019

[7].关百胜.基于卷积神经网络的双人交互行为识别技术研究[D].中国科学院大学(中国科学院国家空间科学中心).2018

[8].金壮壮,曹江涛,姬晓飞.多源信息融合的双人交互行为识别算法研究[J].计算机技术与发展.2018

[9].王军,周思超,夏利民.基于协方差矩阵稀疏表示的交互行为识别方法(英文)[J].JournalofCentralSouthUniversity.2018

[10].左鑫孟.基于视频的双人交互行为识别与理解算法研究[D].沈阳航空航天大学.2017

标签:;  ;  ;  ;  

交互行为识别论文-姬晓飞,秦琳琳,王扬扬
下载Doc文档

猜你喜欢