基于微透镜阵列的光场图像深度估计研究
摘要 | 第4-6页 |
Abstract | 第6-7页 |
1 绪论 | 第11-19页 |
1.1 课题研究背景及意义 | 第11-12页 |
1.1.1 课题来源 | 第11页 |
1.1.2 研究背景及意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-14页 |
1.2.1 光场成像技术研究现状 | 第12-13页 |
1.2.2 光场图像深度估计研究现状 | 第13-14页 |
1.3 本文主要研究内容及安排 | 第14-17页 |
1.3.1 主要研究内容 | 第14-15页 |
1.3.2 论文组织结构 | 第15-17页 |
1.4 本章小结 | 第17-19页 |
2 Lytro光场相机成像机理及校正算法研究 | 第19-27页 |
2.1 Lytro相机成像机理 | 第19-23页 |
2.1.1 光场及光场参数化 | 第19-20页 |
2.1.2 Lytro相机成像原理 | 第20-22页 |
2.1.3 Lytro图像的文件分析 | 第22-23页 |
2.2 Lytro原始图像校正 | 第23-26页 |
2.2.1 白色校正图像 | 第24页 |
2.2.2 建立微透镜网格模型 | 第24-25页 |
2.2.3 解码raw图像 | 第25-26页 |
2.3 本章小结 | 第26-27页 |
3 基于光场数字重聚焦的深度估计算法 | 第27-41页 |
3.1 光场数字重聚焦技术 | 第27-30页 |
3.1.1 光场相机数字重聚焦原理 | 第27-29页 |
3.1.2 像素光场重聚焦 | 第29-30页 |
3.2 目标聚焦度测量 | 第30-38页 |
3.2.1 基于拉普拉斯算子的聚焦度测量 | 第31-33页 |
3.2.2 基于索贝尔算子的聚焦度测量 | 第33-35页 |
3.2.3 基于图像灰度方差的聚焦度测量 | 第35-37页 |
3.2.4 聚焦度曲线高斯插值 | 第37-38页 |
3.3 仿真实验结果对比及分析 | 第38-40页 |
3.4 本章小结 | 第40-41页 |
4 基于亚像素精度的子孔径图像立体匹配算法 | 第41-55页 |
4.1 基于视差法的深度估计原理 | 第41-46页 |
4.1.1 双目立体视觉 | 第41-42页 |
4.1.2 Lytro相机子孔径图像提取 | 第42-44页 |
4.1.3 光场极平面图(EPI) | 第44-46页 |
4.2 基于子孔径图像的亚像素精度立体匹配算法 | 第46-52页 |
4.2.1 子孔径图像多标签亚像素偏移 | 第46-47页 |
4.2.2 立体匹配代价计算 | 第47-49页 |
4.2.3 聚集代价计算 | 第49-50页 |
4.2.4 优化及求精 | 第50-52页 |
4.3 仿真实验结果对比及分析 | 第52-54页 |
4.4 本章小结 | 第54-55页 |
5 基于多线索融合的光场图像深度估计算法 | 第55-65页 |
5.1 光场多深度线索分析 | 第55-56页 |
5.2 多线索融合的深度估计算法 | 第56-57页 |
5.3 实验结果对比及分析 | 第57-59页 |
5.4 光场图像深度估计系统 | 第59-63页 |
5.4.1 深度估计系统总体设计 | 第59-60页 |
5.4.2 原始图像校正模块 | 第60-61页 |
5.4.3 深度估计模块 | 第61-62页 |
5.4.4 系统实现 | 第62-63页 |
5.5 本章小结 | 第63-65页 |
6 总结与展望 | 第65-67页 |
6.1 本文的工作总结 | 第65-66页 |
6.2 未来工作展望 | 第66-67页 |
参考文献 | 第67-72页 |
攻读硕士学位期间发表的论文及所取得的研究成果 | 第72-73页 |
致谢 | 第73-74页 |