双目立体视觉定位论文-李冠贤,何思铭,费浩雯

双目立体视觉定位论文-李冠贤,何思铭,费浩雯

导读:本文包含了双目立体视觉定位论文开题报告文献综述及选题提纲参考文献,主要关键词:双目立体视觉,叁维标定,图像获取,系统设计与实现

双目立体视觉定位论文文献综述

李冠贤,何思铭,费浩雯[1](2019)在《基于双目立体视觉技术的空间定位系统设计与实现》一文中研究指出如今,叁维重构技术广泛应用于工业检测、叁维测量、虚拟现实等领域。同时双目立体视觉也是计算机视觉的一个重要分支。立体视觉是指从两个不同的角度去观察场景中的同一个物体,来获取不同视角下的二维图像,再运用成像几何原理来计算图像像素之间存在的位置偏差(视差),从而获取物体的叁维信息。本文通过设计一种用于目标空间叁维距离、方位信息探测的立体视觉系统及实现方法,根据图像识别结果进而获得目标的叁维信息。(本文来源于《电子世界》期刊2019年11期)

何文思[2](2019)在《夜间环境下基于双目立体视觉的青苹果识别与定位研究》一文中研究指出苹果种植具有较强的季节性,采摘环节基本依靠人工完成,工作时间集中,劳动强度大且采摘效率低。运用采摘机器人技术可以减轻人工采摘工作量,机器视觉系统是苹果采摘机器人的重要组成部分,目前,对青苹果的识别定位问题研究较少,本文以夜间青苹果为研究对象,围绕图像降噪、图像增强以及识别定位等问题展开研究,解决了识别定位过程中遇到的复杂光照、部分遮挡等问题,实现采摘机器人夜间作业模式。主要研究内容及结论如下:(1)选定合适的辅助光源并研究夜间青苹果图像的噪声特点,分析中值滤波算法和小波降噪算法的特性,结合两者的优点对夜间青苹果图像进行降噪处理并与常用降噪算法进行对比,以PSNR作为图像降噪评价标准,本文降噪算法的PSNR最高,即图像所含噪声最少。(2)针对夜间青苹果图像存在整体偏暗和细节信息丢失的问题,提出了一种保护细节特征的图像增强算法。在基于Retinex图像増强理论的基础上,使用改进的LoG算子对原始图像进行处理,提取图像的细节特征,根据图像信息熵计算比例系数,将细节特征融入到单尺度Retinex算法处理后的图像中,得到增强处理后的结果图像。对比常用图像增强算法,本文图像增强算法可以达到良好的图像增强效果且图像携带更多的细节特征。(3)基于模板匹配思想对夜间青苹果的识别算法进行研究,利用成熟青苹果形状特征得到标准青苹果边界,通过7次尺度变换创建满足实际采摘要求的模板库,选用NCC模板匹配算法进行匹配并使用图像金字塔算法加速匹配过程。经过重复性实验得出:无遮挡情况下的匹配准确率为90%,遮挡面积低于40%时可以匹配成功,匹配一幅模板图像的平均时间为0.8秒。(4)对夜间青苹果双目立体视觉系统进行研究,定义左摄像机为世界坐标系的原点,借助Matlab平台完成摄像机标定,获取双目摄像机的内外参数,矫正双目摄像机,根据双目视觉原理,对青苹果采摘点进行定位计算。实验表明,左摄像机距离青苹果500mm~1500mm距离内产生的误差满足实际采摘要求。(本文来源于《兰州理工大学》期刊2019-03-18)

卢岸潇[3](2019)在《基于双目立体视觉的工件定位技术研究》一文中研究指出随着科学技术的发展,工业机器人在制造业中得到了广泛的应用。与视觉系统集成是一种提高工业机器人智能化程度的有效手段。双目立体视觉系统可以获取环境的叁维信息,使得工业机器人能够执行复杂任务,相比单目视觉系统具有不可比拟的优势。本文开展了基于双目立体视觉的工件定位技术研究,主要内容如下:首先,本文介绍了课题背景以及研究意义,分析并总结了双目视觉机器人与立体匹配算法的研究现状,在此基础上提出了本文的研究内容。之后本文分析了双目视觉机械臂定位系统的需求,给出了系统的总体设计并完成了硬件的选型。其次,本文对双目视觉机械臂定位系统的坐标系变换方法进行了研究:通过张正友标定法确定相机内外参,实现了世界坐标系到相机坐标系的变换;通过手眼标定确定相机与末端执行器之间的位置关系,实现了相机坐标系到末端执行器坐标系的变换。再次,本文介绍了立体视觉领域常用的数据集,分析了传统立体匹配算法SGM的基本原理,指出了算法的局限性。之后本文设计了端到端的立体匹配卷积神经网络实现场景的视差估计,克服了传统算法的缺点,并根据视差估计结果对场景进行了叁维重建。最后,本文基于Hough圆检测算法实现了工件的识别以及目标点云的分割;基于RANSAC算法实现了点云的平面拟合以及工件的位姿估计。实验结果表明,本文的工件定位算法能够满足精度要求。(本文来源于《浙江大学》期刊2019-03-01)

刘博一[4](2018)在《基于双目立体视觉的焊缝定位方法研究》一文中研究指出焊接技术作为现代制造业的重要工艺技术之一,越来越广泛地应用于航空航天、国防、化工、电子等领域中。从最早的手工焊接,到现在的焊接机器人的应用,焊接技术在效率和精度上都有着飞跃的提升。随着人们对焊接的需求越来越高,焊接机器人的智能化和自主化将是其发展的必将之路。双目立体视觉,作为一种常见且优点众多的视觉传感器,也逐渐被应用于焊接机器人的定位与导航上。基于以上背景,本文确定了基于双目立体视觉的焊缝定位方法研究这一课题。本课题的研究重点就是通过双目立体视觉系统对卫星中板上钛合金管路焊缝进行定位。根据研究背景及内容,分析了课题需求并明确了系统技术指标,本课题确定了双目立体视觉系统的整体方案设计,包括系统的硬件平台搭建以及软件算法构成。硬件平台主要包括双目相机、数字图像采集卡、实验台和计算机。软件算法主要由相机标定、立体校正、图像预处理、特征提取和匹配、双目测距及模板匹配等构成。在充分研究了相机成像模型的基础上,完成了双目相机的标定。并利用标定得到的相机内外参数对钛合金管图像对进行立体校正实验。针对钛合金管及焊缝的特点,对图像进行ROI(Region of Interest)区域选择和图像滤波等图像预处理。这些内容是双目立体视觉系统的基础,为后面做好准备工作。在认为钛合金管路平面与双目视觉系统平面平行这一前提下,本课题将焊缝定位分为两步:首先是管路平面与视觉系统平面间距离的识别,即深度信息识别;然后是焊缝平面坐标信息的识别。将深度信息与平面坐标信息结合即可得到焊缝的位置信息,完成焊缝定位。本课题对双目立体视觉的立体匹配方法进行研究。首先比较SIFT(Scale Invariant Feature Transform,尺度不变特征转换)和SURF(Speeded Up Robust Features,加速稳健特征)特征匹配方法,选择效果更好的SIFT算法对左右图像对中的钛合金管进行特征提取和匹配,得到视差信息。然后根据双目测距原理识别钛合金管路平面与双目视觉系统平面的距离,即完成深度信息的识别。本课题通过对不同尺寸以及不同实际深度信息的钛合金管进行实验,实验结果表明测量误差小于2mm,满足项目技术指标的要求。最后本课题完成焊缝平面坐标信息的识别。首先基于投影法对钛合金管的位置进行提取。之后研究模板匹配的原理和方法。最后采用两步定位方法进行实验,先用创建好的模板库匹配出焊缝平面坐标信息的区域,并用Shi-Tomasi算法进行角点检测作为焊缝的平面坐标信息。实验结果表明水平及垂直方向坐标的误差均在3个像素以内,即测量误差小于1mm,满足实验要求。(本文来源于《哈尔滨工业大学》期刊2018-10-01)

刘海龙[5](2018)在《基于双目立体视觉的电力仪表定位与抓取系统研究》一文中研究指出建立智能型电力仪表检定全自动流水作业平台,需要将不同种类的电力仪表从待检定区域搬运到仪表检定流水线的输送带上。针对这一实际应用背景需求,本文研究了基于双目立体视觉的电力仪表定位与抓取系统,通过双目立体视觉实现仪表空间叁维坐标位置及姿态识别,并以此控制工业机器人实现对任意姿态仪表的抓取与放置等。本文具体研究工作如下:设计并搭建了旋转平台并作为待检定仪表的放置区域。针对随旋转平台转动的电力仪表这一目标,本文研究了基于视觉的运动目标检测的方法。首先通过混合高斯模型来检测转动中的仪表,并以检测到的结果判断其在视觉系统图像坐标系中的位置,当其到达指定位置范围时,控制转盘停止运动,最后通过背景差分法获得仪表的轮廓信息。针对需要检定的仪表类型,研究了基于视觉的仪表型号识别方法。通过对被检定仪表图像分析,确定通过检测其字符模式来识别仪表型号。鉴于此,研究了以最大稳定极值区域(MSER)算法和基于词袋(BOW)模型的图像多分类结合的方法识别仪表型号。首先通过MSER算法获得仪表型号文字区域的图像,并将此图像作为测试图像,输入到训练成功的图像分类器中,该分类器是基于图像视觉特征构造的BOW模型训练的,最后获得仪表的型号。研究了双目立体视觉系统获得仪表中心点叁维坐标的方法。首先对双目相机标定和Eye-in-Hand手眼系统中手眼标定的方法做了研究,然后通过标定结果对左右图像进行了立体校正,并完成了相机坐标系与机器人末端工具坐标系间的转换。通过系统分析比较基于半全局块匹配(SGBM)与基于尺度不变特征变换(SIFT)特征算子的立体匹配算法的优缺点,确定了稳定性更好的基于SIFT特征算子的立体匹配算法实现仪表图像的立体匹配,并以获得的视差值计算仪表中心点的叁维坐标。设计并实现了包括双目立体视觉系统、工业机器人、旋转平台与电动夹爪的电力仪表定位与抓取系统,采用仪表中心点叁维坐标与其倾斜角度来描述仪表姿态,并完成了仪表的抓取实验。实验结果表明此系统定位与抓取的稳定性及精度可以满足电力仪表抓取的需求,具有重要的应用价值。(本文来源于《哈尔滨工业大学》期刊2018-06-01)

田东旭[6](2018)在《基于双目立体视觉的玉米叶片识别与定位》一文中研究指出现代农业发展技术进入到以高新技术应用为主的研究阶段。机器视觉技术、图像处理技术、3S技术、计算机技术等逐渐应用到农业生产中。农业生产需要实时获取田间农作物的位置、生理参数、环境等信息,来对农作物的生长管理进行调控。作物叶片是作物进行光合作用的重要器官,又能反映出作物病虫害情况、生长状态等信息。本文以大田玉米叶片为研究对象,利用双目立体视觉技术,结合植物建模方法,进行玉米叶片的识别与定位研究。建立了双目立体视觉系统,提出了大田背景下玉米叶片图像处理的研究方法,并建立了大田玉米植株的数学模型及叁维模型。提出了叶片数学模型结合视觉图像中不完整的叶片轮廓,推测出整个叶片的轮廓形态。实现了玉米植株各叶片的识别与定位。本文研究内容对其它作物叶片的识别与定位具有一定参考与借鉴价值。为实现农作物实时监测、精准喷药、智能收割等技术奠定基础。主要研究内容和结论如下:(1)建立了双目立体视觉系统及编写了应用程序。该双目系统主要由两台相同型号的大恒MER-500UC-L摄像机、两台M1224-MPW镜头、云台、支架及一台笔记本电脑构成。利用Opencv及Visual studio2012编程并实现双目立体视觉系统的标定,获得精确的双目摄像机标定参数。(2)提出了大田背景下玉米叶片图像处理的研究方法。在颜色空间模型、灰度图像、图像阈值化、形态学运算、边缘检测等图像处理理论前提下,玉米叶片图像处理方法为:颜色空间模型中选出最优组合G-R通道;图像阈值化算法用最大类间方差法,形态学运算最优为先开运算后闭运算处理,用Canny算子进行边缘轮廓提取,并用基本矩形形心算法进行玉米叶片形心提取。(3)建立了大田玉米植株穗期的叁维模型及各叶片的数学模型。根据植物建模方法,结合大田玉米生长的实际情况,利用采集到的实测大田玉米植株各叶片20等分的横坐标与纵坐标数据,进行曲线拟合得到了玉米植株各叶片的二次函数,R~2均在0.95以上,拟合程度较高。建立的模型有两个重要用途,一是:针对机器视觉采集并经过处理后的图像中叶片不连续情况,结合建立的叶片数学模型,达到推测出整片叶片连续轮廓形态的目的。二是:可以结合玉米叶片形心定位坐标推测出该株玉米各叶片全部叁维坐标。(4)实现了玉米植株叶片的识别与定位。结合图像处理技术、建模技术、特征点匹配及叁维重建技术,初步实现了基于双目立体视觉的玉米叶片识别与定位。(本文来源于《吉林大学》期刊2018-06-01)

韩博[7](2018)在《基于双目立体视觉的工件识别与定位关键技术研究》一文中研究指出随着工业领域对生产线自动化程度要求的提高,越来越多工业机器人被应用在实际生产当中。而对工件进行识别和定位往往是机器人实现动作的关键,在众多环境感知传感器当中,双目立体视觉因其可以获得丰富环境信息以及具备感知深度的能力被广泛应用于识别与定位中。因此本课题针对双目立体视觉实现工件识别与定位的关键技术展开研究。首先,按照实际研究需求,根据双目立体视觉叁维重建原理,设计并搭建了双目立体视觉系统。根据实际成像原理,建立摄像机线性与非线性模型。针对摄像机参数不精确的问题,采用张正友平面标定法进行摄像机标定,并通过MATLAB工具箱进行实验,得到的标定误差仅在0.4个像素内,验证了标定方法的准确性。最后根据两摄像机标定获得的外参数,完成双目视觉的标定。其次,针对工业应用环境,在Otsu算法的基础上进行改进,实现工件分割。通过对比实验,采用保边性能最好的双边滤波算法进行降噪,再采用伽马校正对图像进行对比度增强,并结合灰度直方图对算法进行自适应改进。在工业环境中,工件与背景之间灰度差异明显,基于Otsu的阈值分割算法能获得良好的效果,但算法对存在多种工件的图像进行分割时效果差,本文针对这一问题提出改进,结合边缘检测算法进行预分割,从而实现了多个工件的准确分割。再次,针对实际应用中摄像机的位置和视角会发生变化,以及单一特征对工件识别准确率低的问题,提取了对旋转、尺度变化、放射变换具有一定适应性的SURF特征和改进HOG特征。对于特征维度高造成识别效率低的问题,采用BOW模型将两个特征转化为特征直方图。最后采用决策融合方法对两种特征的分类器进行融合,采用DAG-SVMS方法将二分类支持向量机扩展到多类分类,并通过实验验证了本文方法用于多类工件识别的可行性。最后,对于双目立体视觉系统采集到的图像不是严格行对应的问题,采用Bouguet算法进行极线校正。针对工件表面存在弱纹理和重复纹理导致匹配精度低的问题,在局部立体匹配算法的框架下进行改进,引入最小生成树的代价聚合方法,并对得到的视差进行亚像素求精,实现高精度的立体匹配。接着对叁维重建后的工件,采用POSIT算法获取工件的位姿,实现了对工件的叁维定位,并通过实验测试了工件定位精度,以及机器人抓取实验验证算法的有效性。(本文来源于《哈尔滨工业大学》期刊2018-06-01)

原彬理[8](2018)在《基于双目立体视觉的普通工件图像匹配与定位》一文中研究指出随着智能识别算法与机器学习技术的不断发展与进步,机器视觉技术引起了人们的广泛关注。而基于双目立体视觉的图像匹配与定位技术正是机器视觉技术发展应用的方向之一。目前,在工件识别、车辆检测、虚拟现实等热门领域都应用了双目立体视觉技术。双目视觉相比单目视觉,具有明显的优势,即在多种环境下灵活的获取目标物体立体信息。本文对双目摄像机的标定和基本边缘特征的立体匹配技术进行了深入的研究,其中涉及的主要技术有:双目摄像机的标定、目标工件的识别定位和叁维重建。首先,实现摄像机的标定。由于传统标定方法无法同时实现稳定性和高精度,本文提出一种基于Hough和混沌粒子群相结合的改进算法进行标定,实验结果表明该算法具有较好的稳定性和较高的标定精度,工件抓取的精度远高于其他传统标定算法的精度。然后,确定工件立体匹配方法。提出了一种形状上下文的优化方法,本方法实质上是通过优化形状上下文的方法,利用直方图的信息获取候选匹配点,先进行了粗匹配,然后对其进行加权处理,再与形状上下文的相似性度量完成细匹配。最后利用RANSAC算法剔除影响匹配精度的误匹配点对。最终本文对形状上下文优化算法进行了实验验证,并得出了本方法确实提高了目标图像匹配精度的结论。最后,利用平行的双目视觉模型对目标工件关键抓取点进行数学分析,并重新构建该抓取点的叁维模型。再获取工件长轴与图像水平坐标轴的夹角,并利用该夹角来确定工件朝向,最终实现对工件的抓取。通过实验表明该方法具有一定的可行性。(本文来源于《哈尔滨理工大学》期刊2018-06-01)

许贺作[9](2018)在《基于双目立体视觉的柔性装卸机器人工件定位方法研究》一文中研究指出随着机器视觉技术的进步,双目立体视觉已经成为机器视觉发展的趋势之一,与单目视觉相比,双目立体视觉可以更准确地获得复杂环境下目标物体的叁维信息,因而在机器人的识别与定位中得到了广泛应用。本文通过建立双目立体视觉系统,分别对双目立体摄像机标定、图像特征提取与匹配算法、目标工件的定位和叁维重建进行了研究,建立了双目立体视觉系统,并搭建出机器人工件定位系统的实验平台,实现了对目标工件的精准定位。本文的具体研究内容包括:第一,通过分析研究传统标定方法与自标定方法的优缺点,然后,在考虑成像过程中相机畸变的影响下,本文提出了一种结合张正友标定和Heikkila畸变模型的相机标定方法,获得摄像机的内外参数和畸变系数。实验结果表明,本文标定方法获得了更加全面的畸变系数。第二,针对传统SURF算法实时性较差的问题,本文提出了一种改进的SURF算法,该算法使用二进制描述子BRIEF算子对特征进行描述,降低了算法的复杂度。实验结果表明,与传统SURF算法相比,本文改进的SURF算法在一定程度上提升了匹配速度,同时保证了传统SURF算法的鲁棒性,对存在旋转变化、尺度变化、光照变化、图像压缩、噪声等情况下的工件图像,具有较高的匹配精度。第叁,对于目标工件位置的定位,本文提出了基于改进SURF特征的立体匹配定位算法,通过改进的立体匹配算法对左右摄像机拍摄的目标工件图像进行立体匹配,获得有效匹配点对的图像坐标,采用基于有效匹配点对数据集求平均值的方法获得目标工件位置的图像坐标;然后,结合双目摄像机标定结果和基于点的叁维重建方法来求取目标工件位置的叁维坐标。通过实验对定位误差进行了分析,验证了该定位方法在机器人工件定位中具有一定的应用价值。最后,对柔性装卸机器人工件定位系统的软硬件系统进行了介绍,并基于VS2010开发平台对软件操作系统进行了设计。(本文来源于《重庆理工大学》期刊2018-03-25)

张晓宇[10](2018)在《基于双目立体视觉的鸡腿菇识别与定位研究》一文中研究指出鸡腿菇生长周期短,营养价值高,已经在全国范围大量培育。但是在生产作业中,30%至50%的劳动力被用在采摘环节,此环节存在工作时间集中、劳动强度大等问题,导致鸡腿菇产生经济效益不高。现在随着机器人以及计算机技术的快速发展,制造农业采摘机器人应用在鸡腿菇生产领域已经成为可能。鸡腿菇采摘机器人生产的过程中对获取鸡腿菇的叁维坐标是其作业的先决条件,也是关键技术之一。本文研究采摘机器人的视觉系统由双目摄像机构成,双目摄像机类比于人的双眼,可以感知物体叁维信息。双目视觉相比单目,可以灵活获取目标物体叁维信息,相比多目又具有运算简便的特点。本文基于双目立体视觉技术对鸡腿菇的识别与定位进行了研究,研究内容主要有摄像机标定、鸡腿菇图像匹配、图像分割和叁维重建等内容,主要工作及研究成果如下:(1)本文首先对摄像机的基本模型进行介绍,充分考虑镜头在生产装配过程中引入的误差,对产生畸变进行分析。然后分析叁种标定方法,选用介于自标定与传统标定之间的Zhang两步标定法作为本文的标定算法。最后使用棋盘格对实验所需的双目摄像机进行标定,得到双目摄像机的内外参数和摄像机的畸变系数,完成摄像机的双目矫正,为图像精准采集提供了基础。(2)利用标定后的摄像机拍摄鸡腿菇图片,研究现有的图像匹配经典算法,深入分析SURF算法在求取特征点与构建描述子方面的优点与不足,进而提出改进SURF优化算法。利用机器人在工作环境中采集的鸡腿菇图片进行算法验证,将改进后的算法与SITF和SURF算法进行对比。实验结果表明:改进优化算法不仅继承了SURF的鲁棒性和匹配速度,同时还具有更强的描述能力,最后再使用RANSAC算法对误匹配进行剔除,有效提升特征匹配准确率。(3)分析图像分割中两种经典算法,针对机器人工作环境中获取的鸡腿菇图片,采用两种经典分割算法对图片进行分割,对比两种分割算法处理过后的图像质量。然后选用Grab cut作为图像分割算法,并加入改进SURF算法到分割算法中,利用Grab cut算法进行鸡腿菇轮廓分割,简化了Grab cut算法流程,提高运算效率。最后对比四种边缘检测算法对鸡腿菇图像边缘检测效果,选用Canny作为本文边缘检测算法。(4)介绍叁维重建原理,分析构建叁维重建一般模型,利用棋盘格和指示牌对重建模型进行精度分析,再利用实验计算工作环境下鸡腿菇的叁维信息。实验结果表明,重建模型具有较高的重建精度,对工作环境中鸡腿菇的叁维信息重建精度满足实验要求。本文基于Microsoft Visual Studio 2010和Open CV开发软件,成功实现了摄像机标定、鸡腿菇特征提取与匹配、Grab cut图像分割算法、叁维重建等功能。较好的完成对鸡腿菇的识别与定位。(本文来源于《兰州理工大学》期刊2018-03-21)

双目立体视觉定位论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

苹果种植具有较强的季节性,采摘环节基本依靠人工完成,工作时间集中,劳动强度大且采摘效率低。运用采摘机器人技术可以减轻人工采摘工作量,机器视觉系统是苹果采摘机器人的重要组成部分,目前,对青苹果的识别定位问题研究较少,本文以夜间青苹果为研究对象,围绕图像降噪、图像增强以及识别定位等问题展开研究,解决了识别定位过程中遇到的复杂光照、部分遮挡等问题,实现采摘机器人夜间作业模式。主要研究内容及结论如下:(1)选定合适的辅助光源并研究夜间青苹果图像的噪声特点,分析中值滤波算法和小波降噪算法的特性,结合两者的优点对夜间青苹果图像进行降噪处理并与常用降噪算法进行对比,以PSNR作为图像降噪评价标准,本文降噪算法的PSNR最高,即图像所含噪声最少。(2)针对夜间青苹果图像存在整体偏暗和细节信息丢失的问题,提出了一种保护细节特征的图像增强算法。在基于Retinex图像増强理论的基础上,使用改进的LoG算子对原始图像进行处理,提取图像的细节特征,根据图像信息熵计算比例系数,将细节特征融入到单尺度Retinex算法处理后的图像中,得到增强处理后的结果图像。对比常用图像增强算法,本文图像增强算法可以达到良好的图像增强效果且图像携带更多的细节特征。(3)基于模板匹配思想对夜间青苹果的识别算法进行研究,利用成熟青苹果形状特征得到标准青苹果边界,通过7次尺度变换创建满足实际采摘要求的模板库,选用NCC模板匹配算法进行匹配并使用图像金字塔算法加速匹配过程。经过重复性实验得出:无遮挡情况下的匹配准确率为90%,遮挡面积低于40%时可以匹配成功,匹配一幅模板图像的平均时间为0.8秒。(4)对夜间青苹果双目立体视觉系统进行研究,定义左摄像机为世界坐标系的原点,借助Matlab平台完成摄像机标定,获取双目摄像机的内外参数,矫正双目摄像机,根据双目视觉原理,对青苹果采摘点进行定位计算。实验表明,左摄像机距离青苹果500mm~1500mm距离内产生的误差满足实际采摘要求。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

双目立体视觉定位论文参考文献

[1].李冠贤,何思铭,费浩雯.基于双目立体视觉技术的空间定位系统设计与实现[J].电子世界.2019

[2].何文思.夜间环境下基于双目立体视觉的青苹果识别与定位研究[D].兰州理工大学.2019

[3].卢岸潇.基于双目立体视觉的工件定位技术研究[D].浙江大学.2019

[4].刘博一.基于双目立体视觉的焊缝定位方法研究[D].哈尔滨工业大学.2018

[5].刘海龙.基于双目立体视觉的电力仪表定位与抓取系统研究[D].哈尔滨工业大学.2018

[6].田东旭.基于双目立体视觉的玉米叶片识别与定位[D].吉林大学.2018

[7].韩博.基于双目立体视觉的工件识别与定位关键技术研究[D].哈尔滨工业大学.2018

[8].原彬理.基于双目立体视觉的普通工件图像匹配与定位[D].哈尔滨理工大学.2018

[9].许贺作.基于双目立体视觉的柔性装卸机器人工件定位方法研究[D].重庆理工大学.2018

[10].张晓宇.基于双目立体视觉的鸡腿菇识别与定位研究[D].兰州理工大学.2018

标签:;  ;  ;  ;  

双目立体视觉定位论文-李冠贤,何思铭,费浩雯
下载Doc文档

猜你喜欢