深度图估计论文-王伟,余淼,胡占义

深度图估计论文-王伟,余淼,胡占义

导读:本文包含了深度图估计论文开题报告文献综述及选题提纲参考文献,主要关键词:弱纹理,匹配扩散,平面扫描,能量函数

深度图估计论文文献综述

王伟,余淼,胡占义[1](2014)在《基于匹配扩散的多视稠密深度图估计》一文中研究指出提出一种高精度的基于匹配扩散的稠密深度图估计算法.算法分为像素级与区域级两阶段的匹配扩散过程.前者主要对视图间的稀疏特征点匹配进行扩散以获取相对稠密的初始深度图;而后者则在多幅初始深度图的基础上,根据场景分段平滑的假设,在能量函数最小化框架下利用平面拟合及多方向平面扫描等方法解决存在匹配多义性问题区域(如弱纹理区域)的深度推断问题.在标准数据集及真实数据集上的实验表明,本文算法对视图中的光照变化、透视畸变等因素具有较强的适应性,并能有效地对弱纹理区域的深度信息进行推断,从而可以获得高精度、稠密的深度图.(本文来源于《自动化学报》期刊2014年12期)

莫一鸣[2](2014)在《基于非参数多线索融合的单目视频深度图估计研究》一文中研究指出随着叁维视频需求的快速增长,二维视频的叁维转化问题成为计算机视觉和多媒体分析新的研究热点之一。针对大部分已有的视频转换算法需要恢复相机参数的问题,本文设计了一种基于多线索非参数化融合的单目视频深度图提取方法。在非参数学习的基础上,联合图像轮廓线索、几何透视线索及帧间空时相关性,估计相对准确的视频深度图序列。本文的主要研究工作和创新如下:1.针对目前的深度图估计大多使用单一深度线索且容易出现深度估计偏差的问题,提出一种基于前景背景融合的单目图像深度图估计方法。其中前景深度层主要反映场景显着性区域内的深度,其估计方法是建立在具有相似语义或光学度量的场景具有相似深度的假设上;背景深度层反映场景整体的深度分布趋势,通过分析场景的几何透视线索获得。2.针对基于非参数化学习估计的初始前景深度图存在边界模糊、场景结构相对杂乱的问题,提出一种基于图像分段诱导的初始深度优化方法。首先,基于图模型对原始图像进行过分割,利用其分割结果划分图像场景中的不同物体;接着,在初始前景深度图中相应的各分割区域内,采用均值赋值法优化深度值。该方法能将场景中物体边界及其位置信息有效地嵌入至相应深度图以改善其精度。3.和传统的基于几何线索的深度图估计不同,本文采用线性透视原理提取背景深度图。借助语义自动成组AGS(Automatic Grouping of Semantics)方法估计单目图像中相应的消失点,据此线性地分配背景深度层中的深度信息。背景深度层的几何线性透视类型有如下五类:上-下透视、左-右透视、右-左透视、左上-右下透视和左下-右上透视。该方法提取的背景深度层能整体反映给定的视觉场景中全局的深度分布趋势。4.不同于简单深度图视频估计直接将各帧深度图拼接成视频深度图序列,本文采取联合帧间空时关系的单目视频序列深度图估计。在单幅图像深度图估计基础上,引入时间相关性和运动约束项,共同构成视频深度学习的非参数模型。该方法能有效提升视频深度图估计中帧间深度连续性,抑制单目视频序列中运动物体的深度偏差。实验结果表明,针对未提供相机参数的单目视频序列,本文估计方法能获得场景结构明显、显着物体边界、物体位置相对正确且帧间较为连续的深度视频序列,以有效实现二维视频的叁维转化。(本文来源于《南京邮电大学》期刊2014-03-01)

Sang-Beom,Lee,Yo-Sung,Ho[3](2013)在《3D视频生成与编码的时间一致性深度图估计(英文)》一文中研究指出In this paper, we propose a new algorithm for temporally consistent depth map estimation to generate three-dimensional video. The proposed algorithm adaptively computes the matching cost using a temporal weighting function, which is obtained by block-based moving object detection and motion estimation with variable block sizes. Experimental results show that the proposed algorithm improves the temporal consistency of the depth video and reduces by about 38% both the flickering artefact in the synthesized view and the number of coding bits for depth video coding.(本文来源于《中国通信》期刊2013年05期)

邓小玲,倪江群,代芬,李震[4](2012)在《基于LLOM的单目图像深度图估计算法》一文中研究指出针对计算机视觉理解单目图像立体结构的问题,进行了单目图像深度估计算法的研究。提出了一种基于监督学习方法的室外单目图像深度估计算法,其采用语义标注信息指导深度估计过程,融合绝对深度特征、相对深度特征以及位置特征作为深度特征向量,采用LLOM学习深度特征向量与深度值之间的关系。实验结果显示,该算法对路面、草地以及建筑物类等深度渐进变化的图像块,可获得较满意的深度估计结果。本算法为单目图像深度估计开辟了一个全新的有效途径。(本文来源于《计算机应用研究》期刊2012年11期)

霍智勇[5](2012)在《自由视点视频深度图估计的关键技术研究》一文中研究指出人们在观看立体图像时能够体会到画面的深度感,在观看多视点视频时可以根据自己的喜好选择不同的视角,这些都是普通二维视频难以达到的效果,受到越来越多观众的欢迎。因此,立体和多视点视频是当今视频技术和应用的主流发展方向之一,具有非常广阔的市场前景。其中有多项需要解决的关键技术,如多视点纹理和深度信息的获取,多视点视频的编解码和传输,以及多视点视频的渲染等,尤其是有关深度信息的准确获得已成为当前热门研究领域之一。本文研究的关注点是在多视点视频系统中如何给立体内容加入视点交互,获得相应场景的深度信息,以及如何由深度信息进行多视点渲染,使观众可以自由选择观看的视点位置。本文从构建自由视点视频系统的角度出发,在叁个方面开展了相关关键技术的研究工作,即从单视点运动视频中获得可靠深度图,从多视点视频中获得可靠深度(视差)图以及利用基于深度图的渲染(Depth Image Based Rendering,DIBR)技术进行虚拟视点图像合成。主要工作和创新点如下:1.从单视点运动视频中估计出深度图是非常困难的,本文联合利用SFM(Structure fromMotion)和光流计算将视频中的图像帧转变为纹理+深度图的格式,并且每一帧都有关联的摄像机姿态。算法首先利用SFM获得场景的稀疏表示、图像帧之间特征点的匹配关系,以及每个关键帧的摄像机姿态。在给定参考帧后,根据质量测量选定另一个参与运动流计算的图像帧,通过测量图像之间的运动流实现场景稀疏表示的结构稠密化,获得最优质量的深度图。算法不进行任何深度图内插计算。2.为了在低计算复杂度下获得可靠的深度图,本文将全局优化的方法应用到区域立体匹配的框架内,提出不同的两种从立体图像对中提取深度信息的算法:一种是基于全局差错能量最小化的方法,另一种是基于线性区域生长的方法。全局差错能量最小化是在视差搜索范围内使用块匹配技术为每一个视差构建一个差错能量矩阵。线性生长法是判断某个点与根点之间关联度的差错能量是否小于预先设定的阈值。算法对每一个差错矩阵反复进行均值滤波,寻找最小差错能量,进而获得视差图和深度图。算法利用平滑函数进行全局最优化,通过检测视差图中的高误差能量,剔除由于遮挡区域造成的不可靠预测视差点,以提高视差图的可靠性。在匹配过程中,应用递归二维均值滤波技术快速计算方法对区域匹配算法进行优化,从而提高算法效率。3.针对低纹理区域和遮挡会引起双目立体歧义的问题,提出一种基于DAISY特征和改进型权重核的快速立体匹配视差生成的算法。该算法首先稠密构造局部特征的DAISY描述,计算初始匹配成本;基于Epanechnikov权重核双通聚合消除特征相似歧义得到可靠匹配代价;按照“胜者全拿”的优化准则获得初始视差。然后,利用改进型双边滤波、对称一致性验证和多方向权重视差外插等策略改善视差估计精度。实验结果表明,该方法能有效提高匹配精度,得到分段光滑、精度高的稠密视差,且结构简单、复杂度低。4.针对现有DIBR虚拟视点图像渲染算法存在的问题,提出一种基于深度信息进行后处理的DIBR虚拟视点渲染算法。该算法利用摄像机参数和深度信息,将参考视点图像的纹理和深度图变形到虚拟视点,利用基于深度信息的后处理消除变形图像中的裂缝和伪影,结合深度信息采用inpaint技术填补剩余的纹理空洞。实验结果显示,该方法不论从主观质量或是客观质量上均优于现有的虚拟视点生成方法。在数值试验中,还对多视点渲染算法的图像合成质量进行比较,以及对视频压缩的影响进行了分析。(本文来源于《南京邮电大学》期刊2012-10-30)

深度图估计论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

随着叁维视频需求的快速增长,二维视频的叁维转化问题成为计算机视觉和多媒体分析新的研究热点之一。针对大部分已有的视频转换算法需要恢复相机参数的问题,本文设计了一种基于多线索非参数化融合的单目视频深度图提取方法。在非参数学习的基础上,联合图像轮廓线索、几何透视线索及帧间空时相关性,估计相对准确的视频深度图序列。本文的主要研究工作和创新如下:1.针对目前的深度图估计大多使用单一深度线索且容易出现深度估计偏差的问题,提出一种基于前景背景融合的单目图像深度图估计方法。其中前景深度层主要反映场景显着性区域内的深度,其估计方法是建立在具有相似语义或光学度量的场景具有相似深度的假设上;背景深度层反映场景整体的深度分布趋势,通过分析场景的几何透视线索获得。2.针对基于非参数化学习估计的初始前景深度图存在边界模糊、场景结构相对杂乱的问题,提出一种基于图像分段诱导的初始深度优化方法。首先,基于图模型对原始图像进行过分割,利用其分割结果划分图像场景中的不同物体;接着,在初始前景深度图中相应的各分割区域内,采用均值赋值法优化深度值。该方法能将场景中物体边界及其位置信息有效地嵌入至相应深度图以改善其精度。3.和传统的基于几何线索的深度图估计不同,本文采用线性透视原理提取背景深度图。借助语义自动成组AGS(Automatic Grouping of Semantics)方法估计单目图像中相应的消失点,据此线性地分配背景深度层中的深度信息。背景深度层的几何线性透视类型有如下五类:上-下透视、左-右透视、右-左透视、左上-右下透视和左下-右上透视。该方法提取的背景深度层能整体反映给定的视觉场景中全局的深度分布趋势。4.不同于简单深度图视频估计直接将各帧深度图拼接成视频深度图序列,本文采取联合帧间空时关系的单目视频序列深度图估计。在单幅图像深度图估计基础上,引入时间相关性和运动约束项,共同构成视频深度学习的非参数模型。该方法能有效提升视频深度图估计中帧间深度连续性,抑制单目视频序列中运动物体的深度偏差。实验结果表明,针对未提供相机参数的单目视频序列,本文估计方法能获得场景结构明显、显着物体边界、物体位置相对正确且帧间较为连续的深度视频序列,以有效实现二维视频的叁维转化。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

深度图估计论文参考文献

[1].王伟,余淼,胡占义.基于匹配扩散的多视稠密深度图估计[J].自动化学报.2014

[2].莫一鸣.基于非参数多线索融合的单目视频深度图估计研究[D].南京邮电大学.2014

[3].Sang-Beom,Lee,Yo-Sung,Ho.3D视频生成与编码的时间一致性深度图估计(英文)[J].中国通信.2013

[4].邓小玲,倪江群,代芬,李震.基于LLOM的单目图像深度图估计算法[J].计算机应用研究.2012

[5].霍智勇.自由视点视频深度图估计的关键技术研究[D].南京邮电大学.2012

标签:;  ;  ;  ;  

深度图估计论文-王伟,余淼,胡占义
下载Doc文档

猜你喜欢