视频内容理解论文-孙田琳子,沈书生

视频内容理解论文-孙田琳子,沈书生

导读:本文包含了视频内容理解论文开题报告文献综述及选题提纲参考文献,主要关键词:理解,视频学习资源,资源内容设计,解释学

视频内容理解论文文献综述

孙田琳子,沈书生[1](2019)在《面向理解的视频学习资源内容设计框架》一文中研究指出视频是在线课程的主要呈现形式,如何设计出更易于学生理解的视频学习资源是互联网时代提出的新需求。文章分析了当下视频学习资源的理解需求与现实困境,并借助解释学理解理论建构出面向理解的视频学习资源内容设计框架。研究提出资源设计者应关注视频的中介价值,立足过程设计视角,通过"预理解""多理解"和"融理解"叁个理解阶段,以及知识铺垫、情境导入、问题展开、知识应用和协作互评五个内容环节,逐步促进学生对视频学习资源内容的理解;最后,通过具体的教学案例解释该设计框架的运用路径。研究表明,该设计框架有助于学生对视频内容的理解,教学者应意识到如今视频学习资源的角色转换,挖掘其中的中介文本价值,以促进在线学习的理解效果。(本文来源于《电化教育研究》期刊2019年09期)

王涛[2](2019)在《视频内容理解研究与应用》一文中研究指出随着互联网的广泛应用和现代信息处理技术的发展,视频数据呈现出爆炸式的增长趋势。由于视频数据具有结构复杂、内容丰富、非结构化等特点,人们对海量视频数据处理能力有限,其中潜在的信息没有被充分挖掘,因此需要采用更加智能化的技术对其进行处理。视频内容理解是智能化处理视频的主要手段,也是计算机视觉领域的一个研究热点和难点,涉及到的学科包括模式识别、图像处理、计算机视觉、人工智能等,在军用、民用及医学等方面有着重要意义,广泛的应用前景和潜在的经济价值。本文主要基于视频关键帧提取和目标检测实现视频内容理解,并通过视频内容理解在自动驾驶中的实际应用为例,阐述视频内容理解技术和应用。本文工作由以下五个部分组成:(1)针对视频数据非结构性、难以处理的特点,利用HSV直方图法将抽象复杂的高维数据转换为可以量化的低维数据,从而减少了数据量。(2)结合视频数据相邻帧具有相似度高的特性,将关键帧提取转换为聚类问题,分别设计了K-Means、凝聚层次聚类和密度峰值聚类算法来提取视频关键帧,并分析了它们的聚类效果,同时对比了压缩域关键帧提取算法和非压缩域关键帧提取算法的结果,最终得到了一种综合性能较好的视频关键帧提取算法。(3)为了保证聚类的质量,利用轮廓系数SC(Silhouette Coefficient)计算最佳聚类簇数,以确定初始的聚类中心和簇的数量。(4)为了提高目标检测模型的准确率,对数据集进行了剪枝,使得模型能够更好地适应特定应用场景,实验表明,改进后的模型在识别准确率上有所提升。(5)结合关键帧提取和目标检测算法构建了一套完整的视频理解实验流程,以自动驾驶系统为背景对实验数据进行了分析,展示了视频内容理解在自动驾驶中的实际应用。(本文来源于《兰州理工大学》期刊2019-05-20)

彭玉青,刘璇,王纬华,赵晓松,魏铭[3](2018)在《融合场景因素的视频内容理解模型》一文中研究指出提出了一种融合场景因素的视频内容理解模型,首先通过ResNet提取全局特征,并结合迁移学习的Places365-CNNs提取深度场景特征;然后经由多层感知器生成相应的场景向量,并将其作为LSTM网络结构的输入,对视频中图像及其描述语句进行编码-解码处理;最后通过MSCOCO数据集预训练,为视频中的关键帧生成准确、具体的描述语句,使观众了解视频详细内容。将所提出模型在Flickr8K、Flickr30K和MSCOCO数据集以及视频《第叁极》中进行训练和测试,并且使用不同的评估方法进行验证,结果表明输出语句对视频的描述较为准确,所提模型与其他现有模型相比性能有所提高。(本文来源于《中国科技论文》期刊2018年14期)

刘楠[4](2011)在《视频广告内容分析与理解》一文中研究指出视频广告已经成为当今人类社会最为流行的一种商业媒介,为人们的现代生活带来了不可或缺的商业信息,时时刻刻都在潜移默化的影响着人们的工作和生活方式。每年世界各国的企业都会花费上亿美元的资金,生产、投放成千上万条的视频广告并在各国电视台循环不断的播出,在向民众推介各种各样新颖的商品及服务的同时,也带动了相关产业的迅速发展。同时,随着数字化浪潮的发展,人们已经可以通过各种手段录制海量的视频广告以便随时获取重要的商业咨询。但是,由于缺少有效的广告内容自动分析技术,录制广告数量的爆炸性增长导致了不同用户群对于视频广告自动滤除、采集以及索引等多方面的迫切需求。如何针对他们各具特色的需求,开发一系列有效的视频广告内容分析与理解技术,从而快速有效的监视、分析、存储、查询视频广告的内容、播出时间、质量等已经成为当前多媒体内容分析领域的一个热点问题。针对当前视频广告内容分析与理解技术中存在的不足,本文尝试和探索从视频广告各种潜在语义特性的分析入手,借助计算机视觉、机器学习以及多媒体处理技术,跨媒体挖掘视频广告中存在的各种语义概念,构造中层描述子,实现不同媒体模态下的信息交互融合,提出行之有效的解决方案。本文主要成果和创新之处包括以下几个方面:1)视频广告识别技术中的由粗及细匹配策略为提高视频广告识别技术的效率,通过将局部敏感哈希函数(Locality Sensitive Hash, LSH)与精细尺度连续滤除技术(Fine Granularity Successive Elimination, FGSE)进行有机的融合,提出一种由粗及细的匹配策略。在粗匹配阶段,利用LSH加快初始检索速度,大量过滤无关内容,得到全局近似的查询结果;在精匹配阶段,引入FGSE技术解决粗匹配过程中的冲突问题,通过逐层分解匹配特征,快速寻找局部差异,获得精确匹配结果,实现对于视频广告的快速识别。2)基于协同学习的视频广告文本检测视频广告中的文本是一种重要的语义信息。为实现对这类复杂文本的有效定位,提出一种基于协同学习的视频广告文本检测方法。通过将文本检测视为一种特殊纹理的分类问题,引入协同学习机制,采用两种相对独立的视角强化对于文本区域特性的描述。针对协同学习机制中容易引入噪声样本的问题,结合Bootstrap思想,提出一种改进的协同学习算法,在两个相对独立的视角中交互选择典型样本,提高分类器的泛化能力。3)融合视觉-音频-文本模态信息的视频广告段落检测提出一种基于视觉、音频以及文本模态交互式融合的广告段落检测方法。通过充分挖掘广告各模态中本质的播放特性,首次在视频广告的文本模态中,结合视频文本区域在时空域随机变化的特性,提出一个全面的文本描述子,同广告音视频模态特征构成完整的描述空间。此外,为解决现有融合方式中,简单将各模态信息进行迭加的不足,提出一种交互集成式学习算法Tri-AdaBoost,交互挖掘各种模态的中级描述子所蕴含的互补信息,实现这些模态的有机融合,从而提升分类器的性能。4)视频广告段落分割技术中跨媒体特性分析与融合研究通过融合广告视觉、音频以及文本模态,提出一种有效的视频广告段落分割方法。为了加强对于广告分割具有重要作用的描述子——产品信息帧(Frame Marked with Product Information, FMPI)检测的鲁棒性,首次将文本模态与一些重要的视觉特性引入FMPI的构造过程,并结合音频模态描述子形成一个对于广告边界特性的完整描述空间。此外,利用不同模态下描述子之间时域的上下文信息,实现各模态的有效融合,自动分割广告段落。5)基于稀疏视觉词包描述的广告语义分类方法为提高传统视觉词包的描述能力,利用更加符合人类理解图像方式的稀疏学习技术,提出一种基于稀疏视觉词包描述的广告语义分类方法。基于对于大量广告中视觉语义单元共生规律之间的分析,将不同类别广告中出现的各具特色的语义单元映射为一种过完备化的视觉词典表示,并利用这个词典中基本元素的稀疏线性组合描述广告中潜在的语义,在不同类别广告中蕴含的语义信息与稀疏视觉词包描述之间建立潜在的映射关系,实现对于广告语义内容的分类。(本文来源于《北京交通大学》期刊2011-12-01)

视频内容理解论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

随着互联网的广泛应用和现代信息处理技术的发展,视频数据呈现出爆炸式的增长趋势。由于视频数据具有结构复杂、内容丰富、非结构化等特点,人们对海量视频数据处理能力有限,其中潜在的信息没有被充分挖掘,因此需要采用更加智能化的技术对其进行处理。视频内容理解是智能化处理视频的主要手段,也是计算机视觉领域的一个研究热点和难点,涉及到的学科包括模式识别、图像处理、计算机视觉、人工智能等,在军用、民用及医学等方面有着重要意义,广泛的应用前景和潜在的经济价值。本文主要基于视频关键帧提取和目标检测实现视频内容理解,并通过视频内容理解在自动驾驶中的实际应用为例,阐述视频内容理解技术和应用。本文工作由以下五个部分组成:(1)针对视频数据非结构性、难以处理的特点,利用HSV直方图法将抽象复杂的高维数据转换为可以量化的低维数据,从而减少了数据量。(2)结合视频数据相邻帧具有相似度高的特性,将关键帧提取转换为聚类问题,分别设计了K-Means、凝聚层次聚类和密度峰值聚类算法来提取视频关键帧,并分析了它们的聚类效果,同时对比了压缩域关键帧提取算法和非压缩域关键帧提取算法的结果,最终得到了一种综合性能较好的视频关键帧提取算法。(3)为了保证聚类的质量,利用轮廓系数SC(Silhouette Coefficient)计算最佳聚类簇数,以确定初始的聚类中心和簇的数量。(4)为了提高目标检测模型的准确率,对数据集进行了剪枝,使得模型能够更好地适应特定应用场景,实验表明,改进后的模型在识别准确率上有所提升。(5)结合关键帧提取和目标检测算法构建了一套完整的视频理解实验流程,以自动驾驶系统为背景对实验数据进行了分析,展示了视频内容理解在自动驾驶中的实际应用。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

视频内容理解论文参考文献

[1].孙田琳子,沈书生.面向理解的视频学习资源内容设计框架[J].电化教育研究.2019

[2].王涛.视频内容理解研究与应用[D].兰州理工大学.2019

[3].彭玉青,刘璇,王纬华,赵晓松,魏铭.融合场景因素的视频内容理解模型[J].中国科技论文.2018

[4].刘楠.视频广告内容分析与理解[D].北京交通大学.2011

标签:;  ;  ;  ;  

视频内容理解论文-孙田琳子,沈书生
下载Doc文档

猜你喜欢