一、Performance Analysis of Disparity for Stereoscopic Image Pairs(论文文献综述)
李铭[1](2021)在《基于深度神经网络的立体图像和视频校正》文中提出随着3D技术在日常生活的普及,3D游戏、3D电影等成为人们日常生活中的重要娱乐项目。然而人眼长时间观看某些3D影像后会出现眼睛疲惫、头疼、注意力难以集中等生理不舒适症状。其中垂直视差是观看者产生视觉疲劳的重要因素之一。因此在实际应用中,拍摄后3D影像都需要经过后期处理来进行校正。传统外极线校正的方法对3D影像的左右视图施加投影变化,使对应的外极线处于同一水平线,从而实现垂直视差的消除。然而传统无相机参数的外极线校正方法对相机基础矩阵估计精度要求高,可能出现严重的畸变,通过投影变换校正的影像需要裁剪,造成分辨率损失。而传统的基于视点合成进行立体校正的方法流程较为复杂,涉及多个计算机视觉领域的相关问题,因此面对较为复杂立体场景其效果较差,缺乏进一步的研究改进。本文提出了基于视差估计和图像修复网络的视点合成技术进行立体图像校正。本文首先设计了未校正立体图像视差估计网络,实现相机参数未知下立体图像的水平和垂直视差估计。随后基于估计的视差结果通过像素映射合成待修补的虚拟右视图。针对修补后图像和原始左右视图之间存在较强的相关性,本文提出了基于参考视图的图像修复网络,利用指导模块,获取左右视图中的语义信息,引导图像空洞的修补。最终合成的虚拟右视图和原始左视图构成校正后的立体图像。通过提出的这两个新型网络,本文的视点合成方法在Movie数据集上将平均垂直视差误差降为0.521px,在主观图像质量评估中获得了3.5以上的平均得分,其中70%的图像优于其他对比算法的结果。对于立体视频的校正,本文提出了一种基于时空融合的立体视频帧合成方法对立体视频进行校正,期望进一步提升校正后立体视频的画面质量。该方法保持立体视频的左视点视频序列不变,合成校正后的右视点视频序列。本文首先提出了视差和光流同步估计网络。该网络同时实现了视差估计和光流估计两个功能,以避免设计两个网络增加整体方法的复杂度。随后,通过简单的几何关系转换,生成各原始视频帧和待合成的校正后右视点视频帧之间的几何对应关系。最后本文提出的时空融合的立体视频帧合成网络,融合了时空维度信息,生成校正后的右视点视频序列。最终本文的立体视频帧合成方法在Movie数据集上合成视频帧的PSNR为43.76,SSIM为0.9987,校正结果的平均垂直视差误差降为0.526px,垂直视差大于1px的像素比例仅4.13%,成功实现了更高画面质量的视频校正效果。
张子薇[2](2021)在《基于双目立体视觉的三维图像重建方法研究》文中研究指明双目立体视觉利用自然光源下的二维图像信息进行三维重建。由于其成本低、适应性强等特点,广泛应用于医学、军事、文物保护等领域。深度估计在双目立体视觉相关的三维重建中发挥着重要的作用。本文针对双目系统中存在标定结果的误差,匹配精度不够理想以及匹配时的阴影遮挡等问题,对算法进行优化改进。搭建双目立体视觉系统,实现对所拍摄的图片进行匹配、测距、重建的功能。本文所做的主要工作如下:(1)针对传统标定算法中存在的标定精度不高的问题,提出一种改进的相机标定方法并对相机参数进行校正。改进的标定方法通过电脑外接USB接口连接好硬件(双目摄像头),对9*6棋盘格图像进行采集,再使用拟牛顿算法对相机参数进行迭代优化,获得更为精确的标定结果。(2)针对匹配算法中存在的匹配精度不高导致后续测距、重建等应用效果不理想的问题,提出一种结合深度学习的立体匹配方法,构造卷积神经网络进行图片的相似性度量,有效提高了立体匹配的精确度。该算法使用MAC系统,在PYCHARM开发环境下结合图像处理库OPENCV,采用TENSORFLOW框架,搭载GPU对训练过程加速。训练数据集选用KITTI 2015。采用改进的网络模型,计算出的误差(5 pixels)为5.65%,准确度有所提升。(3)为了进一步优化视差图,提出一种基于引导滤波的代价聚合方法。该方法改进了传统的引导滤波方法,并结合引导滤波和双边滤波的优点。对引导图像进行双边滤波以及均衡化处理后,降低了图像噪声。采用胜者为王的方法选择最优视差,并进一步使用亚像素级别的处理以及针对部分遮挡区域进行填充,较好地解决了一些匹配点不准确或遗失的问题。改进后的方法有效降低了引导图在细节信息及边缘信息方面的计算误差。选取Tsukuba样张改进前聚合误差为6.53%,改进后聚合误差为5.16%;Venus样张改进前的聚合误差为6.34%,改进后聚合误差为4.97%。(4)对三个不同角度所捕捉的图像计算其视差图,对图中的关键点进行距离测量。结合真实测量值计算出测量误差,并对引起误差的原因作了分析。实现对上述三个不同角度拍摄图像的点云三维重建。最终实验结果表明,本文所设计的解决立体匹配问题的网络模型及后续改进优化措施有效地提高了匹配精确度,实现了对双目立体视觉系统所拍摄图像的三维重建。本文方法对基于双目立体视觉的三维图像重建有一定的参考价值。
郭承刚[3](2020)在《面向远程环境目标感知的视觉跟踪与深度估计算法研究》文中提出在我国多发自然灾害和事故灾难的情况下,为了保证救援人员的人身安全,发展远程无人操作平台是面向应急救灾安全保障的新需求。为了向操作员提供准确的远程环境感知能力,基于计算机视觉手段提取远程环境中各类目标物的方位、姿态、深度等信息,可以规避潜在危险并实现直观精细地操作辅助。针对远程场景中的目标深度感知需求,本文从视觉目标跟踪和双目立体深度估计两个方向研究了计算机视觉理论算法,取得了一定的理论研究成果,并设计了一种算法实施方案。近年来,基于传统数学模型的视觉跟踪方法和基于深度神经网络的立体匹配方法得到了研究人员的广泛关注和持续跟进。一方面,复杂环境中随时间变化的目标形态和目标外观对现有跟踪算法提出的挑战仍然存在,如何挖掘目标局部稳定外观特征,实现快速准确的视觉跟踪仍然需要深入研究。另一方面,最新的立体匹配算法通过设计复杂的深度神经网络结构来降低匹配误差,但无法实时输出高分辨率深度图。如何通过简化创新网络结构来提高立体匹配算法推理效率,并对深度图中的边缘等精细结构实现准确预测,面向实用化改进立体匹配网络仍是难点问题。本文首先完整地回顾总结了基于稀疏表示模型和基于相关滤波模型的视觉跟踪方法中的数学模型和算法思想,概括了基于深度神经网络的立体匹配方法的主要发展历程,然后分别提出了两种准确的目标跟踪算法以及两种轻量的立体匹配网络。在所提出的跟踪算法中,一定程度探索了稀疏表征思想和相关滤波思想的结合。在所提出的立体匹配算法中,则探讨了输入高分辨率彩色图的边缘纹理和预测视差图的视差边缘之间的映射关系。主要工作可以分为以下四点:(1)针对现有基于正向稀疏表示模型的目标跟踪算法中特征提取和编码过程的冗余重复问题,提出了一种基于循环反向稀疏模型的实时稀疏表示跟踪算法。该算法基于反向稀疏表示模型,使用由循环移位算子生成的候选目标样本集合作为稀疏字典,对目标模板进行稀疏编码。由于只对目标模板反向求解稀疏编码,并且将包含循环移位目标候选特征集合的优化式转换到频域求解,所提出的算法优化过程十分高效。相比经典的稀疏表示跟踪算法,综合性能表现更好,运行速度也大大加快。(2)针对现有基于鉴别相关滤波的目标跟踪算法忽略目标内部局部空间结构信息的问题,提出了一种基于空间树形结构的稀疏正则化相关滤波跟踪算法。该算法将表达目标内部空间层次化结构的组稀疏正则化项引入相关滤波目标优化式中,来对不同层次的局部滤波器分组施加正则化约束,以表达目标不同空间位置上局部外观特征与期望响应之间的关系。对于优化过程中的关键步骤,基于循环矩阵的性质将其转换到频域中以方便快速地求解。相比基于整体模型的相关滤波跟踪算法,所提出的基于局部空间结构的跟踪算法各项性能指标更好。(3)针对现有端到端立体匹配网络模型的视差上采样结构速度较慢,对边缘等精细结构不能有效预测的问题,提出了一种改进的端到端立体匹配网络模型。在所提出的网络模型中,主要研究了视差上采样细化阶段的局部自适应感知卷积结构和相关的损失函数。基于这种共享卷积结构,探索了不同上采样阶段图像强度像素与视差像素之间的语义联系,通过训练过程中卷积权重的梯度更新来自适应地感知预测视差图中的深度不连续边缘。实验表明,所提出的立体匹配网络中视差上采样结构相比直接级联强度特征和视差特征的上采样结构更为有效,且该立体匹配网络具有良好的预测精度和速度。(4)针对现有的立体匹配网络模型推理效率较低的实际问题,提出了一种有效结合低分辨率视差估计和超分辨率子网的深度立体匹配网络结构。该结构以降低卷积层的操作分辨率为原则,构建较低分辨率的匹配代价体,并执行低分辨率水平上的代价聚合和视差回归,从而快速获得初始视差图。然后使用所提出的超分辨率子网完成快速地视差图逐级上采样,并在上采样的同时进行高频信息补充与视差噪声细化。与最新的端到端立体匹配网络相比,所提出的新模型具有较高的预测精度和更快的预测推理速度。综上所述,本文对计算机视觉领域两个核心方向,视觉跟踪和立体匹配,开展了算法研究,为无人工程机械的远程环境视觉感知应用提供了算法理论方面的技术支撑。最后,为实际应用提供了系统方案设计思路和相关仿真实验。
吴文欢[4](2020)在《计算机视觉中立体匹配相关问题研究》文中研究指明计算机立体视觉通过模拟人类的双眼视觉功能,在不同视点采集同一场景的一对立体图像来感知周围现实中的三维世界。立体视觉技术作为一种非接触式的被动深度感知方法,由于其成本低、便于实施而且能恢复场景稠密的三维信息,使其在机器人自主导航、自动驾驶、三维测量与三维重构、虚拟现实等诸多领域有着广泛的应用。立体匹配是立体视觉中最核心的技术,其目的是确定立体图像之间所有像素的对应关系,以此通过对应像素之间的视差来恢复深度信息。然而,如何提高立体匹配准确性一直是立体视觉技术中的瓶颈问题。首先,立体匹配本身是一个从二维图像平面逆向求解三维空间信息的病态问题;其次,在匹配过程中又面临着诸多挑战,包括由辐射变化带来的立体图像成像差异、极线校正畸变、由相似纹理带来的匹配二义性、遮挡以及物体边界处的视差膨胀等问题。受这些因素的影响,要从立体图像中快速地搜寻出所有真实匹配点对进而恢复场景完整、正确的三维信息,仍然是一个极具挑战性的研究课题。本文针对上述影响立体匹配性能的难点问题进行了积极探索和深入研究,提出了新的算法,旨在为更好地解决立体匹配这一难题提供新的思路。本文主要工作和创新点如下:(1)提出了一种基于本质矩阵奇异值分解的极线校正方法。针对传统极线校正方法需要进行迭代优化而容易陷入局部最优的问题,本文提出了一种依据本质矩阵的奇异值分解获得极线校正封闭解的方法。首先,利用立体视觉系统中摄像机内参数已知这一先验信息,由基础矩阵和已知的摄像机内参数推导出本质矩阵。然后,对本质矩阵实施奇异值分解,并利用左右摄像机内在的几何约束消除分解的二义性。最后,为了使左右摄像机的光轴变为平行且与基线垂直,对分解出的正交矩阵实施相应的变换,而所得到的两个射影变换即为极线校正的封闭解,因此,本文所提出的极线校正方法无需任何优化过程。实验结果表明本文极线校正方法不仅具有更高的效率和精度,而且产生的畸变也更小。(2)针对立体图像之间经常出现的由辐射变化引起的成像差异问题,提出了一种基于Census特征的抗辐射变化立体匹配方法。首先,对于每个像素,分别在灰度图像和梯度图像上实施Census变换,然后将由灰度和梯度生成的二进制字符串进行拼接,为每个像素构建出一个轻量级的二值特征向量。相应地,待匹配像素之间的相似度则通过其特征向量的汉明距离计算得到。为了在提升视差图信噪比的同时,有效应对物体边界处的视差膨胀效应,本文采用一种新的融合自适应支持权重策略对代价体进行滤波,即分别使用局部边缘感知滤波器和非局部边缘感知滤波器对代价体实施滤波,并将它们的滤波结果通过取平均来实现融合。最后,依次采用“赢者通吃”优化方法以及视差精确化措施计算出最终视差图。实验结果表明本文所提出的算法不仅对辐射变化具有较强的鲁棒性,而且视差图中物体边缘得到较好地保持。(3)针对由相似纹理引起的匹配歧义问题,提出了一种基于定向线性树的快速代价聚合方法。首先,每个像素都对应着一棵以其自身为根的定向树,而每棵树是由来自不同方向的1D路径组成,从而避免为每个像素设计一个最优的支持窗。其次,采用定向线性树进行代价聚合,这样每个根像素不仅可以得到邻域像素的支持,而且树中所有其它像素也沿着各自1D路径支持该根像素。最后,计算视差并利用它构建一个新的代价体,紧接着采用定向线性树对其进行聚合,使有效视差沿着1D路径传播给被遮挡像素和误匹配像素。在代价聚合的具体实现过程中,对于每条1D路径,通过来回遍历该路径两遍,就可一次性地计算出该路径上所有像素沿着该路径的聚合代价,这使得基于定向线性树算法具有较低的计算复杂度。实验结果表明本文所提出的算法不仅能有效消除不同纹理区域的匹配歧义,而且匹配速度也得到极大提升。(4)针对非学习的匹配方法无法有效挖掘复杂场景下立体图像之间的深层内在联系,提出了一种分组距离网络模型,以便通过学习立体图像到其视差图的映射来预测视差。首先,采用多个残差模块提取每个像素不同深度的特征,并将这些不同深度的特征向量进行拼接。为了在降低特征向量维度的同时,有效减少向量中特征信息的丢失,提出了对特征向量进行分组计算距离的策略,即根据视差将左右视图的对应像素进行对齐,并将它们的特征向量进行分组,求解对应组子向量之间的欧式距离,然后将所有组的距离值拼接起来,构成距离向量。一旦求解出所有像素在每个视差下的距离向量,即可构建出一个4D代价体。为了更好地融合邻域像素的上下文特征信息以及相邻视差的距离信息,本文采用级联的3D沙漏网络对4D代价体进行滤波。最后,对滤波结果进行回归并生成最终视差图。实验结果表明本文分组距离网络的视差预测性能要优于当前其他卷积神经网络方法。
周雅[5](2020)在《图像重定向与质量评价》文中提出随着移动设备的普及和立体显示技术的发展,人们已不再满足于视觉上的可获得性,而更加追求视觉上的高享受性。图像重定向因其能够自适应地调整多媒体内容以满足不同终端的需求,而被广泛关注和研究。为了在满足设备显示硬需求的同时,兼顾用户视觉体验的软需求,质量评价往往被许多成熟的产业链考虑在内。因此,本文讨论图像重定向和质量评价之间的辅成关系。一方面,研究图像重定向的质量评价;另一方面,研究质量评价指导下的图像重定向技术。关于立体图像重定向的研究相对匮乏,亦没有公开的数据集。为了填补这块空白,我们建立了首个立体重定向图像的主观数据集SIRD。其涉及单算子、多算子在内的四种典型的立体重定向方法,包含图像质量、视觉舒适度、深度感和总体质量在内的四种立体感知评价维度,有着较强的代表性和较高的置信度。为了评估用户在观看立体重定向图像时的安全性,模拟人眼系统的双目感知机制,我们设计了首个基于混合失真聚合的视觉舒适度评价模型Hi-VCA。针对立体重定向中经常出现的结构失真、信息丢失、双目冲突和语义失真,我们分别设计了四种度量以全面地描述重定向对舒适度的影响。尤其是在双目冲突度量中,我们考虑包括视觉舒适区、双目竞争、窗口冲突和聚焦辐合冲突在内的异常双目感知机制,以更彻底地分析诱导视觉不舒适的因素。最后,实验结果表明,Hi-VCA模型不仅对于立体重定向图像,而且对于普通立体图像,均有着较好的舒适度评价能力,这在相关模型中极具竞争力和实用性。为了解决质量评价中数据量少、标注成本高这一难题,我们提出了基于主动学习的质量评价方案。对于传统的质量评价模型,我们设计了基于聚类的采样策略。而对于基于深度学习的质量评价模型,我们首先设计了一个双路的立体图像质量评价网络,然后提出了基于感知相似性的采样策略。实验结果表明,尽管缩减大约一半的标注代价,但能实现与使用所有样本点相媲美的性能。为了实现质量评价对图像重定向的反向优化,我们设计了基于强化学习的质量感知的多算子图像重定向框架SAMIR。首先,我们将多算子重定向任务模拟成马尔可夫决策过程。然后,提出了语义和美学感知度量作为强化学习中的奖励函数,一方面保证图像信息的正确传递,另一方面保证图像的视觉质量。最终,在不需要任何标注数据和低复杂度的情况下,实现了多步算子的自适应选择。SAMIR框架亦给用户提供了一定的创作空间,通过设计动作空间,调整重定向方向和比例,可以根据需求实现更为多样化的效果。
尉婉丽[6](2020)在《3D视觉舒适度预测技术研究》文中认为三维(Three Dimension,3D)多媒体服务能给用户带来逼真的视觉体验,是多媒体技术的发展趋势之一。然而当前市场上的3D图像/视频质量参差不齐,人们在观看3D图像/视频时常会产生一定程度的视觉不舒适,因此需要对其进行感知舒适度评价。由于人眼主观判定3D图像/视频舒适度费时费力,所以人们须探求对其进行客观舒适度预测的方法,并在此基础上改善3D图像/视频的视觉感知舒适度。现有的3D视觉客观舒适度预测方法大多基于空域和时域信息,未能结合压缩域(频域)信息,这些方法尚未充分挖掘3D图像/视频的可用信息。基于上述研究背景,本学位论文主要研究如何有效地利用压缩域(频域)信息建立3D图像/视频舒适度的客观预测模型,并对3D视频进行舒适度提升。本文主要工作内容如下:1)提出了一个基于DCT变换的3D图像舒适度预测模型(3D-Ms DCT)。由于二维离散余弦变换(Discrete Cosine Transform,DCT)被广泛应用于图像/视频压缩中,因此本文对视差图进行多尺度DCT变换,从多尺度变换系数中提取出3D视觉舒适度特征。该模型定义了三类多尺度视觉舒适度特征,分别是8种不同尺度下的基本视差强度特征、7种尺度下的视差梯度能量特征和8种尺度下的视差纹理复杂度特征,然后采用随机森林回归算法训练融合23个多尺度视觉舒适度特征,从而获取最终的3D图像视觉舒适度预测值,率先实现了利用压缩域信息进行3D图像视觉舒适度的精确预测。2)以3D图像舒适度预测中提取的三类频域特征为基础,提出了一个空域、频域特征相结合的3D图像舒适度预测算法(3D-SF)。为充分挖掘3D图像的视觉不舒适因素,本文基于视差图的空间分布特性,提取了视差幅值、视差梯度、视差最大值与视差范围4个传统特征,归为空域低级视差特征。在此基础上,本文又将影响3D视觉舒适度的图像复杂度、目标边界突变、目标横向距离以及左、右边界视差这5个新参数作为影响视觉舒适度的空域高级视差特征,然后联合单尺度下的3个频域视差特征,共计12个舒适度特征进行3D图像舒适度预测。在特征融合中,本文采用了极端随机树回归模型来训练学习。实验结果表明该算法能提高预测的效率和准确度。3)提出了一个多维特征融合的3D视频舒适度预测算法(3D-SFT)。在3D场景中,由于物体运动特性是影响人眼观看3D视频舒适度的关键因素,所以本文挖掘了3D视频中目标物体在纵深方向运动的深度变化信息和物体在二维空间上的运动信息来衡量3D舒适度。之后通过结合视差图DCT变换后的频域特征和空域舒适度特征来进行3D视频舒适度预测。实验结果表明该算法提升了3D视频舒适度预测的准确度。此外,本文还提出了一种基于深度调整的3D视频舒适度改善方法,实验结果显示该方法能在一定程度上改善3D视频的舒适度。
张悦[7](2020)在《基于多分辨率和深度感知关联性的立体图像质量评价》文中研究指明随着信息技术的发展,立体图像在现代生活中的应用越来越广泛。在立体图像采集、存储、编码和传输过程中,会引入各种噪声导致图像的失真,从而严重影响人类的视觉体验,带来糟糕的主观感受。因此,立体图像质量评价技术的研究在人类应用生活体验中占据至关重要的位置,对于推动立体图像技术的普及与应用具有非常重要的现实意义。由于主观评价方法操作复杂,成本过高,因此如何建立一套符合人类视觉系统的客观质量评价模型是目前研究的热点和难点。人眼是图像信息的最终接收方,因此人眼视觉感知特性在建立符合人眼主观感受的客观评价模型中扮演着非常重要的角色。目前的立体图像客观评价模型存在没有充分考虑人类视觉感知特性,无法深入感知深度信息、算法不具备通用性等问题。针对上述问题,本文将着重研究深度信息和人眼视觉感知特性之间的关联性,旨在建立符合人眼主观感知系统的立体图像客观质量评价模型。主要内容分为两个部分:(1)提出一种基于深度感知的双目融合立体图像质量评价方法。深度信息往往都是由视差图来体现的,目前对视差图的研究通常都是将其融入亮度图像中来提取特征,然而这样处理会丢失一部分深度信息。因此,本文对视差图进行单独研究,结合多分辨率模型和双目对比灵敏特性,融合生成多分辨率深度边缘灵敏性独眼图,这样处理不仅考虑了左右眼不对称的生理机制,而且体现了人眼在不同观看距离下对于深度边缘纹理结构的敏感性。将多分辨率和视差图结合不仅符合人眼视觉感知特性,而且不易于深度信息的丢失。同时采用相似性偏差算法处理参考和失真分量,这样操作可以使提取的特征更具有对比性。通过实验结果的对比分析可以发现,所提算法具有较强的竞争优势,较高的拟合人类视觉感知系统的能力和一定的通用性。(2)提出一种基于多分辨率感知特性的立体图像质量评价方法。该方法基于人眼主观感知系统,改变对视差图和多分辨率模型的处理步骤,采用先将图像输入多分辨率模型中,再计算视差图的算法顺序,构造人眼在不同视物距离下的直观感知景象,这样处理更符合人眼视觉的接收处理机制。最后对多分辨率视差图进行梯度交叉映射偏差值估计,使提取的深度特征更加简单有效。同时为了更全面的提取图像特征,增加对亮度图像的层次结构分析。实验结果表明,在充分考虑了人眼主观感知特性后,算法性能得到了明显提升,说明所提算法预测的客观值与主观值具有较一致的单调性。
王凯[8](2020)在《双目视觉局部立体匹配算法研究》文中研究指明计算机视觉是人工智能领域的重要分支,通过对生物视觉的模拟,使计算机具有类似人眼视觉感知三维环境信息的能力,而双目立体视觉作为计算机视觉研究的重要领域之一,被广泛应用于无人驾驶、智能导航、工业检测、虚拟现实等领域。双目视觉涉及相机标定、图像校正、立体匹配和三维重建等方面,其中立体匹配的本质是从两幅图像的不同视点中找到对应的匹配点,通过计算视差来获取深度信息。但由于光照、遮挡、纹理等因素的存在,对立体匹配提出挑战,也使立体匹配成为双目视觉中的核心部分,算法的匹配精度和运行时间直接决定了双目视觉系统在实际场景中的表现。本文对双目立体视觉基本原理进行详细的介绍,并对立体匹配算法技术展开深入的研究与改进。针对当前局部立体匹配视差精度等方面的问题,本文首先提出图像多尺度概念,在代价聚合阶段采用高斯金字塔跨尺度框架的方式模拟人眼视觉系统在多个尺度上进行立体匹配,通过互尺度正则约束融合各个尺度的匹配代价,粗尺度的匹配代价会修正最精细尺度的匹配代价,提高立体匹配算法的精度;其次根据引导滤波原理,提出了一种二次引导滤波模型,并应用于局部立体匹配算法。在新设计的二次引导滤波模型中,将第一次引导滤波的输出图像作为第二次引导滤波的引导图像,克服了传统引导滤波的缺陷,抑制了噪声。在代价聚合阶段引入二次引导滤波,使用跨尺度框架聚合各尺度的匹配代价,进一步提高算法匹配精度。实验结果表明,基于二次引导滤波的跨尺度局部立体匹配算法在Middlebury测试平台上对标准立体图像对的检测具有更高的精度,且代价聚合步骤的时间复杂度与滤波窗口大小无关,在匹配精度和速度上都取得了良好的效果。二次引导滤波的思想有望在立体匹配等领域取得更广泛的应用。本文根据双目视觉模型,选择合适的相机搭建双目立体视觉实验平台。利用Matlab软件对自制的标定板进行相机标定,得到实验所需双目相机的内外参数。在VS2013结合Opencv的编程环境下,导入标定所得相机参数对真实场景图像对进行校正,利用本文改进算法对校正后的图像进行立体匹配,通过深度视差理论计算出物体表面的三维信息及物体到相机的距离,实验结果表明改进算法在真实场景中也能得到质量较好的视差图,可以很好的实现真实场景的三维信息测量。
王莹[9](2019)在《基于人类视觉特性的无参考图像质量评价》文中研究指明数字多媒体时代的今天,各种立体图像或视频产品丰富着我们的生活,给我们带来身临其境的立体感。然而在立体图像处理过程中,创建、压缩、传输、重建、渲染和显示这些步骤都难免在原始图像上引入各种失真,导致立体图像或视频质量的下降。质量评价算法能够对立体图像或视频产品的质量进行评估。因此,建立一个准确有效的立体图像质量评价模型在数字多媒体时代显得至关重要。本文首先提出了一种基于立体显着性的无参考立体图像质量评价算法。该算法考虑了人类视觉系统特性中的双目视差、双目融合特性、视觉注意机制,利用相应的算法依次生成视差图、融合图,最终得到立体显着图。在图像特征提取算法方面,将图像分解为边缘区和平坦区,利用灰度梯度共生矩阵和Tamura矩阵提取图像的纹理特征。特征映射采用支持向量回归算法,将提取到的特征向量映射到人眼主观质量分数。在LIVE 3D I和MCL-3D这两个对称失真立体图像数据库上衡量算法的预测性能,实验结果表明该算法的预测准确性较高,与人眼主观评价有着较高的一致性。同时,本文还针对非对称失真立体图像,提出了一种基于奇异值分解的无参考评价算法。该方法首先考虑人眼对空间频率变化敏感的特性和双目融合特性,对立体图像进行Gabor滤波,基于奇异值分解的融合策略生成融合图。然后,采用亮度加权直方图的局部二值模式算法分别对融合图、左右子图像提取特征,并将左右子图像的特征向量融合、采用欧几里得距离和夹角余弦进行向量之间的比较;为度量非对称失真差异,利用图像相似度算法计算左右子图像之间的相似性。最后,将融合图的特征向量、子图像的融合及比较特征向量、子图像的相似度特征向量级联,利用支持向量回归算法完成特征到主观质量分数的回归映射。在LIVE 3D II、Waterloo-IVC I和Waterloo-IVC II三个立体图像库上对本算法进行测试。实验结果表明,本算法性能良好,优于目前主流的立体图像质量评价算法。
丁义修[10](2019)在《基于融合图像的无参考立体图像质量评价方法研究》文中研究指明立体图像的质量不仅影响着人们对立体图像的感知,而且反映了立体图像的传输、压缩等处理技术的好坏。所以有必要设计一种可靠、高效的方法来评估立体图像质量的优劣。为了使所提方法能够模拟人脑对立体图像的感知机制,论文设计了一种左右视点的融合方法,并依据融合图像提出了两种无参考立体图像的质量评价客观方法。第一,首先根据视觉特性得到融合图像,利用立体匹配算法得到视差图,将视差图和融合图像结合形成强化图像;其次,考虑到图像在不同尺度下呈现不同的特性,通过两种高斯模型对视差梯度加权后的融合图像和强化图像在两种尺度下提取自然场景统计特征;然后,对视差图使用简单、高效的方法提取统计特征;最终将特征进行融合,并送入支持向量回归,以主观得分作为标签得到立体图像的客观质量分数。第二,根据卷积神经网络提取特征的优异能力,设计了一种双通道的卷积神经网络来实现无参考立体图像质量评价。首先,建立一个以密集连接网络为主体的卷积神经网络结构;其次,将融合图像作为卷积神经网络一个通道的输入,另一个通道的输入为视差图,视差图可以起到特征补偿的作用;然后,考虑到视差信息在感知立体图像过程中的重要作用,通过改进挤压激励模块来实现视差图对融合图像的加权指导,这种加权策略加强了融合图像的重要信息的比重,减轻了非重要信息的比重;最后,在卷积神经网络的末端,将视差图的特征和加权校正过的融合图像的特征进行融合得到总体特征,将总体特征与主观得分进行回归分析,得到待测立体图像的质量分数。实验在公开数据集上进行测试,结果表明,所提出的无参考立体图像质量评价方法能够有效地应对对称和非对称失真类型的立体图像,并与主观评分保持很好的相关性。
二、Performance Analysis of Disparity for Stereoscopic Image Pairs(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、Performance Analysis of Disparity for Stereoscopic Image Pairs(论文提纲范文)
(1)基于深度神经网络的立体图像和视频校正(论文提纲范文)
致谢 |
摘要 |
abstract |
1 绪论 |
1.1 课题研究背景 |
1.2 现有技术及其发展趋势 |
1.3 本文研究的主要内容和组织结构 |
2 相关计算机视觉问题研究的理论基础 |
2.1 基于视点合成的立体校正方法 |
2.2 空洞卷积 |
2.3 可变形卷积 |
2.4 前向映射 |
2.5 立体匹配 |
2.6 光流估计 |
2.7 图像修复 |
3.立体影像校正数据集 |
3.1 传统数据集 |
3.2 数据集构造 |
4 基于视差估计和图像修复网络的视点合成技术的立体图像校正 |
4.1 未校正立体图像的视差估计 |
4.2 像素映射 |
4.3 基于参考视图的图像修复网络 |
4.4 实验结果及分析 |
4.5 本章小结 |
5 基于时空融合的立体视频帧合成方法的立体视频校正 |
5.1 视差和光流估计 |
5.2 时空融合的立体视频帧合成网络 |
5.3 实验结果及分析 |
5.4 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
在学期间所取得的科研成果 |
(2)基于双目立体视觉的三维图像重建方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题背景与研究意义 |
1.2 国内外研究现状 |
1.2.1 国外研究情况 |
1.2.2 国内研究现状 |
1.3 本文主要研究内容 |
1.4 论文结构安排 |
第2章 双目立体视觉系统 |
2.1 双目立体视觉几何原理 |
2.1.1 深度关系 |
2.1.2 对极约束 |
2.1.3 三角测量 |
2.1.4 建立点与点的对应关系 |
2.2 准备工作 |
2.2.1 双目相机的标定 |
2.2.2 图像校正 |
2.2.3 图像增强处理 |
2.3 本章小结 |
第3章 基于深度学习的立体匹配算法 |
3.1 神经网络概述 |
3.2 网络模型的设计与分析 |
3.3 卷积神经网络的训练 |
3.3.1 关于Tensor Flow框架 |
3.3.2 数据集和测试集 |
3.3.3 网络参数的选择 |
3.4 网络模型效果与分析 |
3.5 本章小结 |
第4章 视差图后处理 |
4.1 基于引导滤波器的代价聚合 |
4.2 视差选择及后处理 |
4.3 实验结果与分析 |
4.4 本章小结 |
第5章 双目立体视觉三维重建 |
5.1 系统结构 |
5.2 三维重建原理 |
5.3 双目立体视觉系统的搭建 |
5.3.1 硬件配置 |
5.3.2 软件开发环境 |
5.4 实验结果与分析 |
5.4.1 获取图像三维点坐标 |
5.4.2 相关场景的重建 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 工作总结 |
6.2 展望 |
参考文献 |
攻读硕士期间的研究成果 |
致谢 |
(3)面向远程环境目标感知的视觉跟踪与深度估计算法研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 远程视觉感知的应用研究现状 |
1.2.2 运动目标深度估计的研究现状 |
1.3 研究内容和主要贡献 |
1.4 本文的组织结构 |
第二章 经典视觉跟踪与双目深度估计算法研究现状 |
2.1 引言 |
2.2 经典视觉跟踪算法的研究现状 |
2.2.1 基于稀疏表示模型的跟踪算法 |
2.2.2 基于相关滤波模型的跟踪算法 |
2.3 双目深度估计原理与立体匹配研究现状 |
2.3.1 双目视觉系统的标定及深度估计原理 |
2.3.2 基于深度神经网络的立体匹配算法 |
2.4 本章小结 |
第三章 基于循环反向稀疏模型的实时稀疏视觉跟踪 |
3.1 引言 |
3.2 循环反向稀疏模型的建立与优化 |
3.2.1 问题建模 |
3.2.2 优化求解 |
3.2.3 模板更新 |
3.2.4 整体实现 |
3.3 实验结果与分析 |
3.3.1 实验设置 |
3.3.2 定量分析 |
3.3.3 属性分析 |
3.4 本章小结 |
第四章 基于空间树形结构联合约束的稀疏相关视觉跟踪 |
4.1 引言 |
4.2 相关滤波原理与结构稀疏约束 |
4.2.1 相关滤波原理 |
4.2.2 结构稀疏约束 |
4.3 空间结构联合约束跟踪模型的建立与优化 |
4.3.1 问题建模 |
4.3.2 优化求解 |
4.3.3 模板更新 |
4.3.4 整体实现 |
4.4 实验结果与分析 |
4.4.1 实验设置 |
4.4.2 定量分析 |
4.4.3 定性分析 |
4.5 本章小结 |
第五章 基于自适应深度不连续感知的深度立体匹配网络 |
5.1 引言 |
5.2 基于局部自适应感知的立体匹配网络 |
5.2.1 网络整体结构与参数 |
5.2.2 局部自适应正则化损失 |
5.3 实验结果与分析 |
5.3.1 实验设置及评价指标 |
5.3.2 定量分析和定性分析 |
5.4 本章小结 |
第六章 基于深度超分辨率子网的高效立体匹配网络 |
6.1 引言 |
6.2 基于深度超分辨率的高效立体匹配网络 |
6.2.1 网络整体结构与参数 |
6.2.2 深度不连续感知超分辨率子网 |
6.2.3 深度不连续感知损失 |
6.3 实验结果与分析 |
6.3.1 实验设置及评价指标 |
6.3.2 定量分析和定性分析 |
6.4 本章小结 |
第七章 基于视觉跟踪和深度估计的目标感知系统 |
7.1 引言 |
7.2 远程目标感知系统的总体结构 |
7.3 远程目标感知系统的关键实现 |
7.3.1 基于循环反向稀疏模型的多线程跟踪 |
7.3.2 基于高效立体匹配网络的域自适应微调 |
7.4 系统仿真实验 |
7.4.1 室内环境深度估计实验 |
7.4.2 室外环境系统运行实验 |
7.5 本章小结 |
第八章 总结与展望 |
8.1 全文总结 |
8.2 后续工作展望 |
致谢 |
参考文献 |
攻读博士学位期间取得的成果 |
(4)计算机视觉中立体匹配相关问题研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 极线校正的研究现状 |
1.2.2 立体匹配的研究现状 |
1.3 本文的研究内容 |
1.4 本文的组织结构 |
2 基本原理 |
2.1 摄像机成像模型 |
2.1.1 参考坐标系 |
2.1.2 针孔模型 |
2.2 两视图几何模型 |
2.2.1 对极几何与基础矩阵 |
2.2.2 基础矩阵的求解 |
2.3 立体视觉原理 |
2.3.1 标准立体视觉系统 |
2.3.2 极线校正原理 |
2.4 立体匹配 |
2.4.1 立体匹配的约束条件 |
2.4.2 立体匹配的一般框架 |
2.5 本章小结 |
3 基于本质矩阵奇异值分解的极线校正方法 |
3.1 问题描述 |
3.2 本质矩阵 |
3.3 本质矩阵的奇异值分解 |
3.4 校正变换 |
3.5 实验结果分析 |
3.5.1 实验设置 |
3.5.2 实验结果与分析 |
3.6 本章小结 |
4 基于Census特征的抗辐射变化立体匹配方法 |
4.1 问题描述 |
4.2 基于Census特征的匹配代价计算 |
4.2.1 Census变换 |
4.2.2 Census特征向量的生成和代价体的构建 |
4.3 基于融合自适应支持权重的代价体滤波 |
4.4 视差计算与精确化 |
4.5 实验结果分析 |
4.5.1 实验设置 |
4.5.2 实验结果与分析 |
4.6 本章小结 |
5 用于消除匹配歧义的定向线性树代价聚合方法 |
5.1 问题描述 |
5.2 定向线性树结构 |
5.3 在定向线性树上的代价聚合 |
5.4 一维路径上的代价聚合 |
5.5 基于定向线性树的视差精确化 |
5.6 实验结果分析 |
5.6.1 实验设置 |
5.6.2 实验结果与分析 |
5.7 本章小结 |
6 基于分组距离网络的视差预测方法 |
6.1 问题描述 |
6.2 卷积神经网络基本层 |
6.3 分组距离网络模型 |
6.3.1 特征提取 |
6.3.2 基于分组距离的代价体构建 |
6.3.3 代价体滤波 |
6.3.4 视差回归 |
6.3.5 损失函数 |
6.4 实验结果分析 |
6.4.1 实验设置 |
6.4.2 实验结果与分析 |
6.5 本章小结 |
7 总结与展望 |
7.1 全文总结 |
7.2 展望 |
致谢 |
参考文献 |
附录 攻读博士期间的主要研究成果 |
(5)图像重定向与质量评价(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景 |
1.2 研究现状 |
1.2.1 2D图像重定向 |
1.2.2 立体图像重定向 |
1.2.3 2D重定向图像质量评价 |
1.2.4 立体重定向图像质量评价 |
1.2.5 影响视觉舒适度的因素 |
1.3 论文内容与结构 |
1.3.1 研究内容 |
1.3.2 章节安排 |
第2章 立体重定向图像主观数据集 |
2.1 原始立体图像的选取 |
2.2 立体重定向图像的生成 |
2.2.1 Stereo cropping处理 |
2.2.2 Stereo seam carving处理 |
2.2.3 Stereo scaling处理 |
2.2.4 Stereo multi-operator处理 |
2.2.5 视差调整 |
2.3 主观评价实验 |
2.3.1 实验环境 |
2.3.2 实验说明 |
2.3.3 打分模式 |
2.4 实验数据的处理与分析 |
2.5 本章小结 |
第3章 基于混合失真聚合的视觉舒适度评价模型 |
3.1 局部结构失真度量 |
3.2 信息丢失度量 |
3.3 双目冲突度量 |
3.3.1 视差范围特征 |
3.3.2 感知交替特征 |
3.3.3 视差强度分布特征 |
3.4 语义失真度量 |
3.5 实验验证 |
3.5.1 实验设置和评价指标 |
3.5.2 实验结果 |
3.6 本章小结 |
第4章 基于主动学习的质量评价模型 |
4.1 主动学习用于传统的质量评价 |
4.1.1 采样策略 |
4.1.2 实验结果 |
4.2 主动学习用于基于深度学习的质量评价 |
4.2.1 采样策略 |
4.2.2 实验结果 |
4.3 本章小结 |
第5章 基于强化学习的质量感知的多算子图像重定向模型 |
5.1 多算子重定向任务的建模 |
5.2 Agent的设计 |
5.3 Reward的设计 |
5.3.1 语义感知度量 |
5.3.2 美学感知度量 |
5.4 训练过程 |
5.5 实验验证 |
5.5.1 实验设置 |
5.5.2 性能比较 |
5.5.3 消融实验 |
5.5.4 分析讨论 |
5.6 本章小结 |
第6章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
在读期间发表的学术论文与取得的研究成果 |
(6)3D视觉舒适度预测技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 选题背景与意义 |
1.2 国外研究现状 |
1.2.1 3D图像舒适度预测研究 |
1.2.2 3D视频舒适度预测研究 |
1.2.3 3D视觉舒适度改善研究 |
1.3 国内研究现状 |
1.3.1 3D图像舒适度预测研究 |
1.3.2 3D视频舒适度预测研究 |
1.3.3 3D视觉舒适度改善研究 |
1.4 论文主要内容及安排 |
1.4.1 论文主要内容 |
1.4.2 论文结构安排 |
第2章 双目视觉及3D视觉舒适度影响因素 |
2.1 双目视觉原理 |
2.1.1 人眼构造 |
2.1.2 视觉神经 |
2.1.3 双目视觉 |
2.2 立体显示 |
2.2.1 立体成像原理 |
2.2.2 立体显示技术 |
2.3 3D视觉舒适度关键影响因素 |
2.3.1 双目视差 |
2.3.1.1 水平视差 |
2.3.1.2 垂直视差 |
2.3.1.3 运动视差 |
2.3.1.4 视差变化 |
2.3.2 辐辏与调节 |
2.3.2.1 辐辏 |
2.3.2.2 调节 |
2.3.2.3 辐辏调节不一致 |
2.3.3 双目竞争 |
2.3.3.1 亮度感知 |
2.3.3.2 色度感知 |
2.3.3.3 边缘感知 |
2.3.4 心理因素 |
2.3.4.1 视觉注意机制 |
2.3.4.2 视觉内在推导 |
2.4 本章小结 |
第3章 使用多尺度DCT特征的3D图像舒适度预测 |
3.1 算法模型架构概述 |
3.2 图像DCT原理 |
3.3 特征提取 |
3.3.1 基础视差强度(BDI) |
3.3.2 视差梯度能量(DGE) |
3.3.3 视差纹理复杂度(DTC) |
3.4 特征融合 |
3.4.1 线性回归 |
3.4.2 非线性回归 |
3.5 实验结果与分析 |
3.5.1 性能指标 |
3.5.2 回归模型分析 |
3.5.3 交叉验证 |
3.5.4 性能比较 |
3.5.5 特征性能 |
3.5.6 多尺度贡献 |
3.6 本章小结 |
第4章 基于空域与频域特征的3D图像舒适度预测 |
4.1 算法模型架构概述 |
4.2 特征提取 |
4.2.1 空域低级视差特征 |
4.2.2 空域高级视差特征 |
4.2.2.1 图像复杂度 |
4.2.2.2 目标边界突变 |
4.2.2.3 目标横向距离 |
4.2.2.4 左、右边界视差 |
4.2.3 频域视差特征 |
4.3 特征融合 |
4.4 实验结果分析 |
4.4.1 特征贡献度 |
4.4.2 性能比较 |
4.4.3 回归模型分析 |
4.4.4 交叉验证 |
4.5 本章小结 |
第5章 基于多域特征的3D视频舒适度预测与改善 |
5.1 算法模型架构概述 |
5.2 特征提取与融合 |
5.2.1 空域及频域特征提取 |
5.2.2 时域特征提取 |
5.2.2.1 纵深方向深度运动时域特征 |
5.2.2.2 二维空间运动方向时域特征 |
5.2.3 特征融合 |
5.3 基于深度调整的3D视频舒适度改善 |
5.3.1 深度与视差 |
5.3.2 深度调整 |
5.3.2.1 深度滤波 |
5.3.2.2 深度去纹理 |
5.4 实验结果与分析 |
5.4.1 性能指标 |
5.4.2 舒适度预测性能分析 |
5.4.3 特征贡献度 |
5.4.4 舒适度改善性能分析 |
5.5 本章小结 |
第6章 结束语 |
6.1 全文总结 |
6.2 研究展望 |
致谢 |
参考文献 |
附录 作者在读研期间发表的术论文及参加的科研项目 |
(7)基于多分辨率和深度感知关联性的立体图像质量评价(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题研究背景和意义 |
1.2 国内外研究现状 |
1.3 论文主要研究内容 |
1.4 论文章节安排 |
第2章 立体图像质量评价研究基础 |
2.1 人眼视觉系统 |
2.1.1 生理学结构 |
2.1.2 视觉处理机制 |
2.2 视觉感知特性 |
2.2.1 亮度结构感知 |
2.2.2 深度信息感知 |
2.3 本章小结 |
第3章 基于深度感知的双目融合立体图像质量评价 |
3.1 基于深度感知的加权梯度计算 |
3.1.1 多分辨率模型 |
3.1.2 对比灵敏度滤波 |
3.1.3 边缘局部加权 |
3.2 基于双目灵敏性的多分辨率深度特征计算 |
3.2.1 基于灵敏性加权的独眼图计算 |
3.2.2 多分辨率相似度偏差计算 |
3.3 实验结果与分析 |
3.3.1 立体图像数据库及算法评价指标 |
3.3.2 整体性能评价 |
3.3.3 单一失真类型性能评价 |
3.3.4 对称和非对称失真类型性能评价 |
3.3.5 深度信息对整体性能的影响 |
3.3.6 计算复杂度 |
3.4 本章小结 |
第4章 基于多分辨率感知特性的立体图像质量评价 |
4.1 基于图像边缘和层次的结构特征提取 |
4.1.1 多分辨率梯度独眼图特征提取 |
4.1.2 多分辨率奇异值独眼图特征提取 |
4.2 基于多分辨率的深度边缘特征提取 |
4.3 实验结果与分析 |
4.3.1 立体图像数据库及算法评价指标 |
4.3.2 整体性能评价 |
4.3.3 单一失真类型性能评价 |
4.3.4 独眼图方法对整体性能的影响 |
4.3.5 深度信息对整体性能的影响 |
4.3.6 计算复杂度 |
4.4 本章小结 |
第5章 总结与展望 |
5.1 研究工作总结 |
5.2 未来工作展望 |
致谢 |
参考文献 |
附录 作者在读期间发表的学术论文及参加的科研项目 |
详细摘要 |
(8)双目视觉局部立体匹配算法研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 国外研究现状 |
1.2.2 国内研究现状 |
1.3 存在的问题与难点 |
1.4 研究内容和结构 |
第二章 双目立体视觉原理 |
2.1 相机成像原理 |
2.1.1 参考坐标系 |
2.1.2 线性相机模型 |
2.2 双目立体视觉模型 |
2.2.1 极线几何 |
2.2.2 视差理论 |
2.3 双目立体视觉系统 |
2.3.1 相机标定 |
2.3.2 图像校正 |
2.3.3 立体匹配 |
2.3.4 三维重建 |
2.4 小结 |
第三章 立体匹配算法研究及改进 |
3.1 立体匹配算法概述 |
3.1.1 立体匹配算法分类 |
3.1.2 立体匹配算法步骤 |
3.1.3 立体匹配算法的评价标准与平台 |
3.2 基于跨尺度聚合的立体匹配算法 |
3.2.1 图像的多尺度表达 |
3.2.2 跨尺度代价聚合 |
3.3 基于二次引导滤波的跨尺度代价聚合算法 |
3.3.1 引导滤波 |
3.3.2 二次引导滤波模型 |
3.3.3 改进立体匹配算法 |
3.4 改进算法分析 |
3.4.1 Middlebury平台精度评估 |
3.4.2 运行时间评估 |
3.5 小结 |
第四章 双目立体视觉测距平台搭建 |
4.1 实验平台搭建 |
4.2 相机标定 |
4.3 三维测距 |
4.3.1 图像校正 |
4.3.2 立体匹配 |
4.3.3 深度提取 |
4.4 小结 |
第五章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
攻读硕士学位期间发表的学术论文及取得的相关科研成果 |
致谢 |
(9)基于人类视觉特性的无参考图像质量评价(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 图像质量评价方法概述 |
1.2.1 主观评价标准 |
1.2.2 客观评价标准 |
1.3 国内外研究现状 |
1.4 本文主要工作和安排 |
第2章 人类视觉系统特性 |
2.1 人类视觉系统 |
2.2 平面视觉特性 |
2.2.1 人眼颜色视觉特性 |
2.2.2 对比度敏感特性 |
2.2.3 多通道频率选择特性 |
2.2.4 视觉掩盖效应 |
2.2.5 显着性特性研究及算法模型 |
2.3 立体视觉特性 |
2.3.1 双目视差 |
2.3.2 双目融合 |
2.3.3 双目竞争 |
2.4 本章小结 |
第3章 基于立体显着性的无参考立体图像质量评价算法 |
3.1 本章算法框架 |
3.1.1 视差图和融合图 |
3.1.2 立体显着性算法 |
3.1.3 特征提取算法 |
3.1.4 特征映射 |
3.2 实验结果分析 |
3.2.1 算法性能衡量标准 |
3.2.2 算法性能分析 |
3.2.3 时间复杂度分析 |
3.3 本章小结 |
第4章 基于奇异值分解的无参考立体图像质量评价算法 |
4.1 本章算法框架 |
4.1.1 图像金字塔分解 |
4.1.2 特征提取 |
4.1.3 特性映射 |
4.2 实验结果及分析 |
4.2.1 算法性能分析 |
4.2.2 鲁棒性分析 |
4.3 本章小结 |
第5章 总结与展望 |
参考文献 |
发表论文和参加科研情况说明 |
致谢 |
(10)基于融合图像的无参考立体图像质量评价方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 立体图像质量评价方法的研究现状 |
1.2.1 立体图像质量主观评价方法的研究现状 |
1.2.2 立体图像质量客观评价方法的研究现状 |
1.3 论文主要工作与结构安排 |
1.3.1 论文主要工作 |
1.3.2 论文结构安排 |
第2章 立体图像质量评价方法理论基础 |
2.1 人类视觉系统 |
2.1.1 人类视觉系统的生理特性 |
2.1.2 人眼视觉心理特性 |
2.2 卷积神经网络 |
2.2.1 卷积神经网络基础知识 |
2.2.2 卷积神经网络的演变 |
2.3 图像质量客观评价指标及其数据库介绍 |
2.3.1 常用指标介绍 |
2.3.2 常用立体图像库介绍 |
2.4 本章小结 |
第3章 基于融合图像和强化图像的立体图像质量评价方法 |
3.1 本章算法结构 |
3.2 模拟人脑融合特性提取彩色融合图像 |
3.2.1 Gabor滤波器模拟感受野 |
3.2.2 增益控制gc和增益增强ge |
3.2.3 总对比能量 |
3.2.4 左右图像融合过程 |
3.3 视差信息 |
3.4 强化图像 |
3.5 图像的归一化 |
3.6 特征提取 |
3.6.1 高斯特征 |
3.6.2 视差图的峰度和偏度 |
3.7 特征融合和SVR |
3.8 实验结果与分析 |
3.8.1 实验数据及性能指标 |
3.8.2 性能分析 |
3.9 本章小结 |
第4章 基于视差图指导的无参考立体图像质量评价方法 |
4.1 本章算法结构 |
4.2 输入图像 |
4.3 网络模块 |
4.3.1 三层密集块 |
4.3.2 连接模块 |
4.3.3 改进的SE模块 |
4.4 实验结果与分析 |
4.4.1 实验数据及性能指标 |
4.4.2 性能分析 |
4.5 本章小结 |
第5章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
发表论文和参加科研情况说明 |
致谢 |
四、Performance Analysis of Disparity for Stereoscopic Image Pairs(论文参考文献)
- [1]基于深度神经网络的立体图像和视频校正[D]. 李铭. 浙江大学, 2021(01)
- [2]基于双目立体视觉的三维图像重建方法研究[D]. 张子薇. 东华大学, 2021(09)
- [3]面向远程环境目标感知的视觉跟踪与深度估计算法研究[D]. 郭承刚. 电子科技大学, 2020(03)
- [4]计算机视觉中立体匹配相关问题研究[D]. 吴文欢. 西安理工大学, 2020(01)
- [5]图像重定向与质量评价[D]. 周雅. 中国科学技术大学, 2020(01)
- [6]3D视觉舒适度预测技术研究[D]. 尉婉丽. 杭州电子科技大学, 2020(02)
- [7]基于多分辨率和深度感知关联性的立体图像质量评价[D]. 张悦. 杭州电子科技大学, 2020(04)
- [8]双目视觉局部立体匹配算法研究[D]. 王凯. 上海工程技术大学, 2020(04)
- [9]基于人类视觉特性的无参考图像质量评价[D]. 王莹. 天津大学, 2019(01)
- [10]基于融合图像的无参考立体图像质量评价方法研究[D]. 丁义修. 天津大学, 2019(01)