尊敬的各位读者:
根据当前疫情防控要求,我馆部分原文传递服务可能会有延期,无法在24小时内提供,给您带来的不便敬请谅解!
国家工程技术图书馆
2022年11月29日
摘要: 近年来,光场成像技术的飞速发展推动着光场相机在各个领域得到广泛应用。光场相机一次拍照就能同时捕捉场景的空间和角度信息,因此在深度获取方面具有多维数据的优势。但是当场景中存在复杂遮挡时,遮挡区域的深度估计结果精度会明显降低,同时由于... 展开 近年来,光场成像技术的飞速发展推动着光场相机在各个领域得到广泛应用。光场相机一次拍照就能同时捕捉场景的空间和角度信息,因此在深度获取方面具有多维数据的优势。但是当场景中存在复杂遮挡时,遮挡区域的深度估计结果精度会明显降低,同时由于硬件条件的限制,光场相机的空间分辨率和角度分辨率存在制约,为了记录场景多视角信息,会牺牲单张子孔径图像的空间分辨率,这使得光场相机的成像质量相比传统相机有所下降。针对上述问题,本文从遮挡场景下的光场深度估计和提高空间分辨率的光场超分辨率重建两个方面进行了深入研究。本文工作总结如下: (1)针对复杂场景中的遮挡区域构建基于子孔径差异检测的抗遮挡光场深度估计算法。首先利用本文提出的差异判别算法针对光场子孔径图像构建遮挡检测模型;其次,基于遮挡检测模型得到精确的遮挡检测图,并使用聚类算法将每个遮挡点窗口划分遮挡区域和非遮挡区域,得到遮挡边缘;最后采用马尔科夫能量场结合遮挡检测图、遮挡边缘、中心视角图像、初始视差图对深度估计结果进行优化。实验结果表明,本文提出的抗遮挡算法能够有效提高光场深度估计的精确性。 (2)提出了一种新型光场深度估计网络EPI-OCC-NET(EpipolarPlaneImageandOcclusionmapNetwork)。该网络将遮挡检测图作为新的网络输入特征,在融合横向和纵向极平面图像(EpipolarPlaneImage,EPI)的基础上构建了三输入分支网络,并将EPI索引作为时间维度,采用3D卷积核来驱使网络学习到更具备区分性的子孔径图像间的差异信息特征,然后拼接分支网络完成全卷积的深度估计。实验表明本网络在HCL光场4D数据集上能够获取可靠的场景深度信息,提高深度估计对遮挡区域的鲁棒性,优于目前几种流行的深度估计方法。 (3)针对光场子孔径图像空间分辨率不足的问题构建了全聚焦的光场超分辨重建模型。该模型首先融合图像退化模型、散景渲染和深度图进行焦点区域的超分辨率重建,其次利用焦点栈进行全聚焦的超分辨重建,最后从多个角度出发设计实验,从定性和定量上验证算法的优越性。 收起
系统维护,暂停服务。
根据《著作权法》“合理使用”原则,您当前的文献传递请求已超限。
如您有科学或教学任务亟需,需我馆提供文献传递服务,可由单位单位签署《图书馆馆际互借协议》说明情况,我馆将根据馆际互借的原则,为您提供更优质的服务。
《图书馆馆际互借协议》扫描件请发送至service@istic.ac.cn邮箱,《图书馆馆际互借协议》模板详见附件。
根据《著作权法》规定, NETL仅提供少量文献资源原文复制件,用户在使用过程中须遵循“合理使用”原则。
您当日的文献传递请求已超限。