导读:本文包含了多视觉信息融合论文开题报告文献综述及选题提纲参考文献,主要关键词:车辆检测,信息融合,假设验证,毫米波雷达
多视觉信息融合论文文献综述
王淑林,张冉[1](2019)在《基于毫米波雷达和视觉信息融合的车辆检测》一文中研究指出为了避免单一传感器对于车辆检测的不稳定问题,本文基于假设验证的决策思想,通过融合毫米波雷达和机器视觉信息,将雷达检测信息映射到图像中构建感兴趣区域,而后采用机器视觉方法在感兴趣区域中进行前方车辆验证。实验表明该信息融合方法提高了车辆检测的准确性。(本文来源于《科技风》期刊2019年23期)
王洁[2](2019)在《基于视觉信息融合的目标跟踪方法》一文中研究指出本文就视觉信息融合的目标跟踪提出合理的研究方法,期望可以为目标跟踪技术的不断推进贡献力量,逐渐提升目标跟踪的计算方法,突破现有的技术局限。(本文来源于《电子技术与软件工程》期刊2019年16期)
常树鹤,张昊宇,许海鹰,洪宇翔,王力[3](2019)在《基于视觉信息融合的熔丝成形制造路径在线识别》一文中研究指出在能源装备制造领域大型构件多层多道电弧焊接和航空制造领域重要构件电子束熔丝沉积增材制造过程中,迫切需要路径在线识别及实时自动导引技术。然而在熔丝制造过程中,相邻焊道之间的几何差异很小,传统的结构光焊缝识别技术无法适应。为解决该问题,针对多层多道电弧焊和电子束熔丝沉积增材制造两种场景,分别设计基于双侧定向光影与结构光信息融合的视觉检测装置,并进行成形试验。试验结果表明,将双侧定向光源单独点亮时获得的焊缝灰度图像作差时,焊道边界附近呈现明显的"高灰度-低灰度-高灰度"的过渡区域。时域融合处理可以有效消除弧光、飞溅的干扰。提出的定向光影视觉信息与结构光传感信息实时融合处理方法,较之已有基于线结构光信息的焊道识别和自动跟踪系统在某些场合具有更强适应性,为保证成形质量和提高生产效率提供了新的技术途径。(本文来源于《机械工程学报》期刊2019年17期)
王赋攀,吴亚东,杨文超,杨帆,侯佳鑫[4](2018)在《一种视觉信息融合数据手套设计研究》一文中研究指出基于数据手套的手势交互是人机交互技术的重要实现方式,手势识别和空间定位效率对虚拟交互任务中的沉浸感和体验感有重要影响.目前主要的数据手套产品的复杂结构导致相应建模及手势识别算法设计复杂度高,难以兼顾成本和效率.面向应用需求,完成了一种融合视觉信息的数据手套应用系统方案设计.首先,在手势识别上,通过将3指弯曲度数据和视觉采集模型相结合的方法,有效简化了手势的建模和匹配过程,实现对特定手势的快速识别.其次,在空间位置定位上,提出了一种高效的基于特征校验的霍夫变换算法:通过摄像头捕获发光球的圆形轮廓以计算其叁维空间位置;使用基于直径方程的改进型霍夫梯度算法降低圆形检测识别复杂度;对于连续帧图像,采用了基于可信度的特征校验法则进行快速处理,进一步提高算法整体效率.最后,该方案在沉浸式中学虚拟实验系统中应用,系统运行稳定,具有良好的交互体验.(本文来源于《计算机研究与发展》期刊2018年12期)
王光庭,曹凯,刘豪[5](2019)在《基于激光雷达与视觉信息融合的SLAM方法》一文中研究指出单线激光雷达传感器的扫描范围是二维平面,在室内环境中,服务型移动机器人在进行同时定位和地图构建过程中,不在激光雷达扫描平面范围内的障碍物无法被识别,构建的地图中会缺少相应的环境信息。为了获取缺失的环境信息,通过改进粒子滤波Rao-Blackwellized的方法得到移动机器人位姿的估计,将Kinect获取的环境叁维信息数据和激光雷达数据融合,使用载有ROS(机器人操作系统)的移动平台Turtlebot2在实际场景中进行实验。实验结果证明,使用融合后的数据信息能得到更加准确的建图和导航效果。(本文来源于《山东理工大学学报(自然科学版)》期刊2019年01期)
周锐[6](2018)在《基于面部多视觉信息融合的驾驶员疲劳状态的识别》一文中研究指出当今社会人们的生活日新月异,居民的汽车保有量逐年递增。在汽车驾驶中,除醉酒驾驶外,疲劳驾驶逐渐成为导致交通事故的另一重要因素。因此,对驾驶员采取实时疲劳检测对重大交通事故的预防有着深远的意义。本文通过阅读查阅大量的文献及资料,了解了国内外疲劳状态检测方法现阶段的发展概况,并在此基础上深入研究了基于面部子空间中多特征融合的驾驶员疲劳检测。疲劳状态检测中的关键技术主要包括:驾驶员的面部检测与跟踪、面部子空间疲劳区域的定位、疲劳特征的提取与融合等。本文首先将采集到的视频转换成帧,为了最大可能地降低外界复杂环境对驾驶员的影响,对图像作预处理,主要包括图像的灰度化、均衡化以及自适应光照补偿;通过比对肤色在不同颜色空间中的聚类特性,选取基于YCgCr的肤色阈值分割对图像进行检测,然后将检测到的肤色区域输入到改进之后的Viola-Jones人脸检测框架之中,结合两种算法实现人脸区域的定位。由于单帧的图像并不能反映出驾驶员是否处于疲劳状态,因此采用Camshift算法对人脸视频序列进行跟踪,满足了系统的实时性要求。其次,在检测到人脸的基础上实现面部关键疲劳形变区域的定位,疲劳区域主要包括眼睛和嘴巴。在眼睛的定位中,分别对驾驶员的图像和检测出的人脸区域采用人脸几何分布的先验知识与灰度积分投影相结合的方法,将眉眼分离,实现眼睛的粗定位;然后通过对比几种边缘算子的检测效果,最终选取Sobel边缘算子实现眼睛轮廓的提取,进而实现眼睛区域的精确定位;人脸的分布符合“叁庭五眼”这一几何规律,根据人眼与嘴巴的相对位置定位出嘴巴区域。最后,主要实现多特征融合的疲劳状态检测。在已定位出的眼睛区域提取PERCLOS参数、嘴巴区域内提取YawnFreq参数;根据人疲劳时两参数的阈值确定其模糊集、论域并通过计算推导得到隶属度函数的表达式;搭建Fuzzy逻辑推理系统,将两种疲劳算子融合输入到模糊系统中,并输出驾驶员的疲劳状态,通过反模糊化得到疲劳程度FatigueLevel,实现驾驶员疲劳状态的识别。(本文来源于《哈尔滨工程大学》期刊2018-05-01)
翟光耀[7](2018)在《基于毫米波雷达与机器视觉信息融合的有轨电车障碍物检测》一文中研究指出现代有轨电车有助于缓解城市拥堵,提高出行效率。目前,大部分有轨电车的运行安全都是依赖于司机对前方路况的主观判断,存在一定的安全隐患。因此,需要采用智能障碍物检测系统来提高有轨电车安全性能。当前最常用的障碍物检测传感器是机器视觉或者雷达。但是天气和光照等因素会影响机器视觉的性能,而雷达又只能获得目标的点位信息。考虑到单一传感器存在的不足,本文采用毫米波雷达与机器视觉信息融合的方式来检测有轨电车前方障碍物。研究了从目标检测到筛选,再到跟踪,最后到目标信息融合等内容。研究内容对提高有轨电车运行安全性具有重要意义。本文主要贡献如下:(1)筛选雷达目标并设计跟踪算法。考虑到雷达工作在有轨电车运行环境中,受到干扰较多以及存在闪烁噪声等因素。本部分先基于一定的规则初步筛选出有效目标,再采用Sage-Husa自适应卡尔曼滤波跟踪目标,提高了雷达在有轨电车运行环境中检测障碍物的准确性和可靠性。(2)搭建融合模型将雷达数据按时间关系分帧融入图像数据。详细阐述了两个传感器联合标定的方法和过程,成功地将雷达目标点位信息映射成图像中对应的感兴趣区域。通过缓存数据加时间戳的方式解决了雷达与摄像机采集频率不一致的问题。(3)基于雷达与机器视觉信息融合实现目标初步识别。不同于依赖雷达检测结果进行机器视觉识别的典型方法,本文利用雷达和机器视觉同时独立检测障碍物。最后,融合分析二者检测结果,区分出目标类型。(4)设计并实施了有轨电车运行环境中的障碍物检测系统。使用基于多阈值轨道区域分割方法提取轨道区域从而缩小目标筛选范围,实现目标精准定位。建立检测系统并通过多线程处理多传感器实时数据来确保系统检测的实时性。(本文来源于《苏州大学》期刊2018-04-01)
翟光耀,陈蓉,张剑锋,张继光,吴澄[8](2017)在《基于毫米波雷达和机器视觉信息融合的障碍物检测》一文中研究指出提出一种基于毫米波雷达和机器视觉传感器信息融合的障碍物检测方法。首先对毫米波雷达和摄像头进行联合标定,实现雷达与图像数据的时空同步,将雷达探测到的目标位置准确投影到图像中,进而提出一种生成雷达目标感兴趣区域的方法,同时对图像信息运用帧差法,检测图像中运动的物体,得到检测区域。最后将雷达检测区域与机器视觉检测区域进行对比,计算重合度,并根据重合度初步区分目标为行人或车辆。实验结果表明,该方法能够很好地实现毫米波雷达与机器视觉联合检测障碍物,弥补了单一传感器在障碍物检测中的不足。(本文来源于《物联网学报》期刊2017年02期)
王德智[9](2017)在《基于ROS的惯性导航和视觉信息融合的移动机器人定位研究》一文中研究指出移动机器人的定位是自主导航研究的基础,也是移动机器人领域的重要研究课题。本论文的主要研究内容是基于ROS操作系统,将惯性导航和视觉传感器信息融合,解决移动机器人自主定位的问题。目前,单目SLAM存在初始化的尺度问题和追踪的尺度漂移问题;惯性导航数据稳定,但积累误差更为严重。这两种技术的融合可以将单目视觉SLAM的高精度与惯性导航数据的稳定性结合起来,取长补短,达到满足定位精度的目的。具体研究内容如下:第一,研究了捷联惯性导航系统的基本定位理论,包括惯性导航坐标系,基本旋转理论和基于四元数算法的姿态解算的知识以及航位推算的理论。为进一步研究和应用奠定了基础。并进行实验测试了惯性导航的定位精度;第二,研究了移动机器人视觉定位的理论依据。首先介绍了摄像机成像与四种坐标系之间的关系。建立了相机成像模型,标定相机内参数。在此基础上,推导了移动机器人视觉定位技术相关的POSIT算法;第叁,由于惯导和单目SLAM属于局部定位方法,缺少全局信息从而累积误差无法修正。本文研究融合惯导的视觉同时定位与地图构建方法,提出基于ORB_SLAM系统融合IMU信息的视觉惯导SLAM算法(VI_SLAM),并推导了视觉惯导SLAM系统的初始化算法。定位实验部分采用控制变量法,很好地验证了VI_SLAM融合算法的优越性和可靠性;第四,介绍整个平台的硬件与软件系统和实验部分。首先介绍了实验中使用的硬件和软件平台,并建立了双轮差速移动机器人的运动模型。简述了ROS操作系统及其常用功能,以及导航与定位的基础知识。实验的分析和设计考虑了多种不同情况的对比。提供了有效的,误差和定位精度的分析方法。实验分析表明,惯性导航和单目SLAM方法的结合有效提高了定位精度,展示了该算法的实际应用前景。(本文来源于《哈尔滨工业大学》期刊2017-06-01)
韩洁[10](2017)在《基于视觉信息融合的目标跟踪方法研究》一文中研究指出数字视频图像处理是一个多学科交叉的技术领域,主要涉及概率论、线性代数、模式识别、数字图像处理、信息学、计算机科学等学科,是目前较热门的一个研究领域。其中,目标跟踪是数字视频图像处理的一个重要分支,在日常生活以及国防科技研究中均发挥着举足轻重的作用,例如视频监控系统、车牌跟踪与识别系统、弹道导弹防御系统等。但是随着视频情景越来越复杂,背景光照,目标形态,以及干扰信息等的变化都对目标跟踪算法提出了更高层次的要求。而现有的目标跟踪算法仍然存在一些不足,跟踪效果不甚理想。尤其在对目标物进行长时间跟踪以及对快速运动目标物进行跟踪的问题中,现有的目标跟踪算法目标丢失率高,且不易重新锁定目标物。为了克服上述问题,本文提出了一种结合人眼视觉信息和特征提取的目标跟踪框架,该框架主要分为叁个部分。首先,针对显着性提取与人眼视觉习惯不够贴近的问题,本文研究了人眼视觉的高斯模型,并结合Kinect硬件平台得出人眼的显着性图。其次,针对显着性提取中计算效率不高的问题,本文提出了将显着性提取与特征提取相结合的算法,提高了计算效率。最后,针对目标跟踪中目标丢失率较高而且不易进行重新锁定,本文提出了改进的Grab Cut图像分割算法,并结合改进的MeanShift算法对目标物标定区域进行跟踪,提高了跟踪的抗干扰能力和重新锁定目标的能力。本文算法不仅可以使计算机执行各种机器指令,而且能够使计算机在对图像和视频等信息的机械处理中充分贴近人眼视觉,从而提高目标跟踪的鲁棒性和灵活性。第一步,利用ORB(Oriented FAST and Rotated BRIEF)算法计算特征点,根据特征点计算得到凸包;第二步,进行计算机显着区域的计算以获得计算机显着图;第叁步,对人眼视网膜建立数学模型,并且利用该模型对Kinect获取到的人眼注视点图中的每个点进行模型化处理,得到更接近人眼视觉原理的注视区域图,即该图像的另一种显着图—人眼显着图;第四步,对上述两种显着图分别计算对显着区域块的显着性值产生影响的叁个影响因子,并进行归一化处理;第五步,对计算机显着图和人眼显着图进行加权融合,得到融合后的显着图;第六步,通过改进的Grab Cut图像分割算法对显着图进行分割处理得到要跟踪的目标物;第七步,利用本文改进的MeanShift算法对提取出来的目标区域进行跟踪。改进后的目标跟踪算法具有如下特点:首先,该算法结合了特征提取算法。对显着图的提取过程中借助了图像的局部特征,和以往需要从整幅图像范围提取显着图相比,更具有目标性,而且效率更高;其次,该算法将两种不同显着图进行融合的方案可以使最后的显着图取二者之长,补二者之短,更具合理性和利用价值;最后,该算法对于目标物的跟踪过程中融入了人眼视觉模型,提高了跟踪的抗干扰能力和重新锁定目标的能力,对目标跟踪的准确性有了进一步保障。实验结果表明,本文的算法对于在视频序列中初始帧自动进行目标区域选择问题,短视频序列中有遮挡和旋转情况下目标跟踪问题,长视频序列中的长时间目标跟踪问题以及快速运动目标物的跟踪效果,都比改进前的算法有了显着的提升。(本文来源于《西安电子科技大学》期刊2017-06-01)
多视觉信息融合论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文就视觉信息融合的目标跟踪提出合理的研究方法,期望可以为目标跟踪技术的不断推进贡献力量,逐渐提升目标跟踪的计算方法,突破现有的技术局限。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
多视觉信息融合论文参考文献
[1].王淑林,张冉.基于毫米波雷达和视觉信息融合的车辆检测[J].科技风.2019
[2].王洁.基于视觉信息融合的目标跟踪方法[J].电子技术与软件工程.2019
[3].常树鹤,张昊宇,许海鹰,洪宇翔,王力.基于视觉信息融合的熔丝成形制造路径在线识别[J].机械工程学报.2019
[4].王赋攀,吴亚东,杨文超,杨帆,侯佳鑫.一种视觉信息融合数据手套设计研究[J].计算机研究与发展.2018
[5].王光庭,曹凯,刘豪.基于激光雷达与视觉信息融合的SLAM方法[J].山东理工大学学报(自然科学版).2019
[6].周锐.基于面部多视觉信息融合的驾驶员疲劳状态的识别[D].哈尔滨工程大学.2018
[7].翟光耀.基于毫米波雷达与机器视觉信息融合的有轨电车障碍物检测[D].苏州大学.2018
[8].翟光耀,陈蓉,张剑锋,张继光,吴澄.基于毫米波雷达和机器视觉信息融合的障碍物检测[J].物联网学报.2017
[9].王德智.基于ROS的惯性导航和视觉信息融合的移动机器人定位研究[D].哈尔滨工业大学.2017
[10].韩洁.基于视觉信息融合的目标跟踪方法研究[D].西安电子科技大学.2017