基于光场和数字重聚焦的近景三维重建
摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第8-16页 |
1.1 问题的提出 | 第8-9页 |
1.1.1 研究的背景 | 第8-9页 |
1.1.2 研究的目的和意义 | 第9页 |
1.2 相关技术及国内外研究现状 | 第9-14页 |
1.2.1 光场成像技术研究进展 | 第9-11页 |
1.2.2 数字计算成像研究进展 | 第11-13页 |
1.2.3 视觉测量技术研究进展 | 第13-14页 |
1.3 本文的主要内容和章节安排 | 第14-16页 |
1.3.1 主要内容 | 第14-15页 |
1.3.2 论文章节安排 | 第15-16页 |
第2章 光场摄影和数字重聚焦理论及仿真 | 第16-26页 |
2.1 光场的定义 | 第16页 |
2.2 光场的获取方式 | 第16-18页 |
2.3 基于光场的数字重聚焦技术 | 第18-20页 |
2.3.1 光场的四维函数 | 第18-19页 |
2.3.2 光场能量函数 | 第19页 |
2.3.3 数字重聚焦 | 第19-20页 |
2.4 光场仿真设计 | 第20-25页 |
2.4.1 光场的采样 | 第20-22页 |
2.4.2 仿真实验 | 第22-25页 |
2.5 本章小结 | 第25-26页 |
第3章 基于光场焦点堆栈的深度信息测量 | 第26-39页 |
3.1 基于光场的对焦测距 | 第26-27页 |
3.2 高分辨率深度图和全聚焦图像 | 第27-31页 |
3.2.1 频域评价函数 | 第27页 |
3.2.2 采样的优化 | 第27-29页 |
3.2.3 复杂场景深度获取 | 第29-30页 |
3.2.4 窗口扫描的优化 | 第30-31页 |
3.3 基于众数协同过滤的图像增强方法 | 第31-38页 |
3.3.1 众数协同过滤 | 第32-33页 |
3.3.2 自适应滤波器 | 第33-34页 |
3.3.3 实验和结果 | 第34-38页 |
3.4 本章小结 | 第38-39页 |
第4章 利用AE和openGL进行三维重建 | 第39-56页 |
4.1 遥感影像的三维重建 | 第39-40页 |
4.2 基于点云的三维重建 | 第40-41页 |
4.3 基于AE和OpenGL的三维重建 | 第41-46页 |
4.3.1 数据准备 | 第41-42页 |
4.3.2 三维模型生成 | 第42-44页 |
4.3.3 三维模型的简化 | 第44页 |
4.3.4 三维场景投影变换 | 第44-45页 |
4.3.5 三维场景重建效果 | 第45-46页 |
4.4 二维三维联动的三维重建工具 | 第46-55页 |
4.4.1 设计方案 | 第46-47页 |
4.4.2 三维空间分析 | 第47-49页 |
4.4.3 效果图 | 第49-55页 |
4.5 本章小结 | 第55-56页 |
第5章 总结与展望 | 第56-58页 |
5.1 本文的工作总结 | 第56页 |
5.2 创新点 | 第56-57页 |
5.3 研究中的不足和未来展望 | 第57-58页 |
参考文献 | 第58-63页 |
致谢 | 第63-64页 |
作者简介 | 第64页 |