导读:本文包含了视觉移动机器人论文开题报告文献综述及选题提纲参考文献,主要关键词:移动机器人,视觉显着性,环境建模
视觉移动机器人论文文献综述
唐莉莎[1](2019)在《基于视觉显着性的移动机器人环境建模》一文中研究指出"伊诺"机器人搭载有一对双目摄像机,可以模仿人的双眼,在室内环境下获取障碍物信息。现基于立体视觉原理,建立起图像物理坐标与空间实际点的叁维坐标关系,形成基于视觉显着性的立体区域匹配算法,获取障碍物的信息,建立室内环境信息地图,为后续机器人路径导航提供地图信息。(本文来源于《机电信息》期刊2019年27期)
梁恉豪,高文渊[2](2019)在《基于移动机器人和计算机视觉技术的施工现场隔墙板自动化建造》一文中研究指出本论文阐述了现场移动机器人施工平台,基于计算机视觉系统,该平台能够在最小程度的人工介入情况下,自动建造与安装隔墙板。此次研究将围绕以下几个领域展开叙述,包括①该平台的实地安装和定制化多功能末端执行器;②数字化工作流程,自动化分析建筑构件的几何信息,生成机械臂运动代码,同时实现履带式移动平台、机械臂和末端执行器之间的通讯;③精准组装墙板并通过实时计算机视觉技术,实时纠正机器人末端姿态。这项实验验证了在实际建造中使用具备视觉感知的移动机器人的丰富可能性。(本文来源于《共享·协同——2019全国建筑院系建筑数字技术教学与研究学术研讨会论文集》期刊2019-09-21)
李宝全,尹成浩,师五喜[3](2019)在《模型未知动态场景下移动机器人的视觉镇定》一文中研究指出为了让移动机器人在动态变化的环境下完成镇定任务,提出了一种基于视觉伺服、可在动态场景中利用模型未知的特征点完成轮式移动机器人的视觉镇定控制方法。首先利用特征点和视觉图像的几何关系计算出不同场景深度的比例;然后,通过单应矩阵分解和坐标系变换,求出各个坐标系之间的相对关系;最后,采用自适应控制器将机器人驱动到期望位姿处。仿真和实验结果表明:在场景发生变动时,移动机器人可以完成镇定控制,即当线速度v→0和角速度w→0时,误差e→0,机器人镇定到期望位姿0.0 m,0.0 m,0.0°处。(本文来源于《天津工业大学学报》期刊2019年03期)
庞磊,曹志强,喻俊志[4](2019)在《基于视觉的行人引领移动机器人导航方法研究》一文中研究指出移动机器人通过跟随领航员以实现导航是一种便捷的导航方式。针对行人引领导航中的领航员定位问题,提出了一种基于视觉的行人引领导航方法。该方法利用卡尔曼滤波器预测领航员的位置和尺度,并基于深度神经网络的行人检测器提供的结果更新滤波器的状态。为了关联检测结果和卡尔曼滤波器预测结果,提出了2个指标用于衡量两者之间的关联性。其中,为了提高在多个行人中辨认领航员的可靠性,创新性地引入了一个孪生神经网络,使用该网络全连接层提取的特征作为候选人的特征描述子,并通过计算特征之间的余弦距离来验证检测器检测到的行人身份。此外,当卡尔曼滤波器跟踪领航员失败时,综合考虑检测结果和孪生网络的判断结果重新初始化卡尔曼滤波器,以实现持续的领航员定位。视频实验和物理机器人实验验证了所提出的方法的有效性和可靠性。(本文来源于《导航定位与授时》期刊2019年04期)
张一博,马磊[5](2019)在《基于视觉传感器的移动机器人定位算法》一文中研究指出针对移动机器人准确实时定位问题,采用视觉传感器Kinect作为信息采集源,提出将光流直接法和特征点匹配进行卡尔曼融合的视觉里程计方法。利用光流直接法快速进行帧间小规模运动估计,同时利用特征点匹配法对关键帧之间进行运动估计,纠正光流法带来的定位误差。结果表明:融合算法能够克服光流法精度差、误差累积等因素和特征点法实时处理速度慢等缺点,突出了特征点匹配精度高和局部地图消除误差累积等优点。提出的方法能提供较准确的实时定位信息,具有一定的鲁棒性。(本文来源于《传感器与微系统》期刊2019年06期)
肖晓[6](2019)在《基于RGB-D的室内移动机器人视觉里程计研究》一文中研究指出移动机器人在未知的环境下完成自主导航,首先需要确定自身位置,即实现定位功能。常用的室内定位导航技术有激光、惯性导航系统、红外和WLAN等。但是由于定位精度和成本等问题,这些室内导航技术并不能被广泛应用。视觉里程计是基于相机的光学定位技术,通过图像特征信息来推算出机器人的位姿;它价格低廉、信息量丰富。其中,基于RGB-D相机的视觉里程计,由于相机采集速度快,测量精度高,且同时可以获得彩色信息和深度信息等优点,己逐渐成为国内外学者研究的热点。但是,目前基于RGB-D相机的视觉里程计仍然存在如下问题:如通过相机获取的深度数据存在噪声和离群点;场景分布较为集中的情况下,特征提取与匹配的精度不高,相机的位姿变换矩阵精度估计不足;系统计算量大,运行速度慢,易造成跟踪丢失等。针对以上问题,本文做出了如下相关研究。首先,对RGB-D相机的成像模型进行研究,完成彩色摄像头和深度摄像头的内外参数标定,生成叁维点云;同时针对RGB-D相机在获取场景信息中的深度数据存在的噪声和离群点问题,选用高斯滤波、中值滤波、双边滤波进行实验对比,以均方误差、峰值性噪比以及滤波时间作为评价性能指标,选取综合性能较好的双边滤波用于视觉里程计。其次,针对某些特征分布集中场景,使用ORB特征提取时,由于提取的特征点不均匀,造成匹配误差较大的问题,本文采用一种利用四叉树的形式将特征进行划分,通过粗筛选和RANSAC相结合的算法,完成特征点的提取与匹配。实现特征点在图像中均匀覆盖,使图像信息被充分利用,减少了误匹配,提高位姿估计精度。最后,针对传统关键帧选取算法单一、易出现关键帧激增,使系统计算量大,运行速度慢等问题,采用一种改进的关键帧选取与剔除算法。通过帧间运动距离结合局部地图完成关键帧的选取,并采用相邻关键帧内的特征相似度进行二次判断,删除冗余的关键帧。改进后的关键帧选择算法能更准确及时的判别关键帧,减少关键帧的冗余,提高系统运行速度。本文通过RGB-D视觉系统与移动机器人搭建硬件实验平台。移动机器人在运动过程中,通过RGB-D相机获取场景信息,并将信息传入上位机进行处理。实验结果表明,采用的双边滤波算法可以有效的去除深度图像中的噪声和离群点;ORB特征提取与匹配算法,可以实现特征点均匀化提取与精匹配;此外,改进的关键帧选取与剔除算法,减少特征信息丢失,提高机器人在定位过程中的精度和鲁棒性。(本文来源于《安徽工程大学》期刊2019-06-10)
邹建成[7](2019)在《基于视觉靶标的移动机器人充电方法》一文中研究指出随着机器人越来越多的应用到现实生活中,为实现移动机器人长期自主作业,对移动机器人的自主充电技术进行了研究,针对目前自主充电技术成本高,对场地改造大,引导范围小等问题,提出了一种基于视觉靶标的低成本且易于部署的自主对接方案,利用安装了摄像头的移动机器人"小珈"进行自主充电实验,在靶标的引导下,本文设计的自主充电方法的成功率达到了90%,证明了该方法的鲁棒性和有效性。(本文来源于《电子设计工程》期刊2019年11期)
刘振国[8](2019)在《基于双目立体视觉移动机器人环境重构研究》一文中研究指出移动机器人智能化程度的高低不仅是国家科研能力的体现,更是国家综合国力的体现。移动机器人可以通过双目视觉系统对外界环境进行有效的感知,通过感知信息进行叁维重构及路径规划是移动机器人实现自主行进的前提。本文主要研究内容是在FESTO机器人实验平台进行双目立体视觉系统研究,通过双目视觉系统获取移动机器人运动环境信息进行叁维重构,为后期路径规划提供基础环境信息。双目立体视觉系统进行叁维重构的关键部分是立体匹配,立体匹配准确率的高低直接影响叁维重构最终结果。现存的立体匹配算法中,依据最优化理论方法可将其分为局部立体匹配算法和全局立体匹配算法。与局部立体匹配算法相比,全局立体匹配算法的匹配精度较高,因此本文采用全局立体匹配。全局立体匹配算法尽管在全局匹配精度高,但是对于图像中局部弱纹理区域匹配效果一般,同时考虑到项目中移动机器人所处的不同环境,必须考虑算法对光照变化的敏感性,因此本文在选择匹配算法时必须考虑光敏感性及图像弱纹理区域信息的保护性。本文首先通过张正友标定法分别对单目相机,双目系统进行标定获取相机的内、外参数,为后期立体匹配、叁维重构提供数据。研究立体匹配算法时发现图像弱纹理区域信息匹配容易丢失,匹配结果较差。超像素可以将图像分为不同的区域,强化匹配约束而保护弱纹理区域信息。本文对现存的各种超像素分割算法进行性能分析得知简单线性迭代聚类(Simple Linear Iterative Clustering,SLIC)算法效率较高且灵活性较大。对SLIC算法深入研究发现它是从初始点开始进行超像素分割,最后到达图像边缘,本文采用先强化图像边缘然后采用SLIC算法进行超像素分割思路,进而提出了基于引导滤波器的超像素分割算法并在数据集上进行实验验证。考虑到移动机器人行进环境中光照不同以及计算效率,本文结合SLIC算法与光敏感性较低的Census变换进行立体匹配。通过实验对比说明Census变换匹配准确性、对光照的敏感性以及与SLIC算法结合匹配结果的准确性,并在数据集上验证该方法的有效性。最后采用SLIC和Census变换立体匹配算法对数据集中图像进行立体匹配,结合数据集给出相机的参数得到叁维图。然后通过FESTO机器人对周围环境进行信息采集,并对信息进行预处理,结合双目相机通过标定实验获取的内参与外参数、SLIC和Census变换立体匹配算法进行实际移动机器人环境重构。(本文来源于《兰州理工大学》期刊2019-06-03)
张婉莹[9](2019)在《移动机器人视觉—惯性组合定位及建图算法研究》一文中研究指出实时定位与建图技术(Simultaneous Localization And Mapping,SLAM),是当下机器人执行导航避障任务时的基础技术,可以利用传感器数据建立世界坐标系,获取机器人在世界坐标系下运动的实时位姿估计并建立场景地图。论文的主要工作如下:首先,本文研究了基于单目相机、惯性测量单元的紧耦合组合定位系统的基本算法流程及数学原理,给出了传感器测量模型及残差模型的推导过程及物理意义。根据两种传感器的数学模型与位姿估计,建立优化目标函数,得到优化后的系统位姿估计及加速度计偏差、陀螺仪偏差。其次,研究了单目稠密建图算法的基本原理,给出了通过四叉树结构选择像素点的过程,给出了算法涉及的核心公式及公式的物理意义。根据对算法原理的研究,加入图像处理模块,设计了基于单目-惯性传感器的组合定位及建图系统VIO-SLAM,完成了系统的实时定位及八叉树占用地图的构建。再次,本文在Euroc数据集下对多种组合定位算法及改进算法VIO-SLAM进行了算法测评,给出了算法测评和数据集建图结果,测评结果显示改进后的算法在定位精度、建图稠密程度上都有提升。最后,利用小觅相机深度版进行了真实场景下的实验,给出了实验时的组合定位系统运行轨迹和场景建图结果,对实验条件和结果进行了分析,实验表明VIO-SLAM相较于原算法性能有所提升。(本文来源于《哈尔滨工业大学》期刊2019-06-01)
宋健[10](2019)在《基于视觉的移动机器人定位方法的研究》一文中研究指出得益于人工智能的迅速发展,移动机器人技术广泛应用于生活与工业领域,其卓越的表现,使其成为多个领域不可或缺的部分,定位问题则是移动机器人领域中最为重要和基础的问题,定位是指对于移动机器人位置与姿态的估计。目前基于视觉的移动机器人定位方法发展迅速,其中将单目视觉与惯性测量单元(Inertial Measurement Unit,IMU)融合的定位方式可以有效解决单目视觉定位过程中的尺度不确定问题和惯性导航中的累积漂移问题,将系统鲁棒性增强,同时满足高精度的定位需求。因此本文将采用基于单目视觉与惯性融合的方式对移动机器人定位算法进行研究。首先,概述了基于视觉融合定位方式的研究背景与研究现状。并对单目视觉融合IMU的理论基础进行了介绍,其中包括相机的成像模型、定位过程中坐标转换关系以及基本的视觉定位建图流程等。然后,对于移动机器人的位姿估计问题,给出了一种单目融合IMU的定位方法,在该算法的视觉前端采用Harris角点进行特征提取,KLT光流法进行特征跟踪,惯性单元的前端则采用预积分方式对数据进行处理,经过联合初始化,在后端通过基于紧耦合的滑动窗口非线性优化过程,估计出移动机器人的位姿信息。经过实验验证该算法的有效性,同时得出该算法在长时间运动过程中会存在误差累积的缺点。针对该融合定位算法的缺点,引入了一套加入回环检测重定位与全局位姿优化的改进定位算法。使用回环帧的位姿信息对优化窗口中的位姿进行重定位,并通过全局位姿优化过程得到全局一致性的移动机器人的位姿估计。经实验,验证改进算法的可行性。接着对无回环检测视觉融合IMU定位算法和加入回环检测功能的融合定位算法进行精度分析,通过绝对位姿误差与相对位姿误差对两种定位算法进行对比,得出改进算法在全局的位姿估计上精度更高。最后使用惯性相机传感器对视觉融合算法进行实验研究,验证算法的通用性与可移植性。(本文来源于《哈尔滨工业大学》期刊2019-06-01)
视觉移动机器人论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本论文阐述了现场移动机器人施工平台,基于计算机视觉系统,该平台能够在最小程度的人工介入情况下,自动建造与安装隔墙板。此次研究将围绕以下几个领域展开叙述,包括①该平台的实地安装和定制化多功能末端执行器;②数字化工作流程,自动化分析建筑构件的几何信息,生成机械臂运动代码,同时实现履带式移动平台、机械臂和末端执行器之间的通讯;③精准组装墙板并通过实时计算机视觉技术,实时纠正机器人末端姿态。这项实验验证了在实际建造中使用具备视觉感知的移动机器人的丰富可能性。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
视觉移动机器人论文参考文献
[1].唐莉莎.基于视觉显着性的移动机器人环境建模[J].机电信息.2019
[2].梁恉豪,高文渊.基于移动机器人和计算机视觉技术的施工现场隔墙板自动化建造[C].共享·协同——2019全国建筑院系建筑数字技术教学与研究学术研讨会论文集.2019
[3].李宝全,尹成浩,师五喜.模型未知动态场景下移动机器人的视觉镇定[J].天津工业大学学报.2019
[4].庞磊,曹志强,喻俊志.基于视觉的行人引领移动机器人导航方法研究[J].导航定位与授时.2019
[5].张一博,马磊.基于视觉传感器的移动机器人定位算法[J].传感器与微系统.2019
[6].肖晓.基于RGB-D的室内移动机器人视觉里程计研究[D].安徽工程大学.2019
[7].邹建成.基于视觉靶标的移动机器人充电方法[J].电子设计工程.2019
[8].刘振国.基于双目立体视觉移动机器人环境重构研究[D].兰州理工大学.2019
[9].张婉莹.移动机器人视觉—惯性组合定位及建图算法研究[D].哈尔滨工业大学.2019
[10].宋健.基于视觉的移动机器人定位方法的研究[D].哈尔滨工业大学.2019