摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第10-17页 |
1.1 研究背景及意义 | 第10页 |
1.2 研究现状 | 第10-14页 |
1.2.1 单帧深度估计 | 第11-13页 |
1.2.2 多帧深度估计 | 第13-14页 |
1.3 主要研究内容和章节安排 | 第14-17页 |
1.3.1 论文主要研究内容 | 第14-15页 |
1.3.2 章节安排 | 第15-17页 |
第二章 深度图生成方法 | 第17-29页 |
2.1 深度图格式 | 第17-18页 |
2.2 深度和视差 | 第18-19页 |
2.3 2D到3D转换流程概述 | 第19-20页 |
2.4 深度图估计 | 第20-26页 |
2.4.1 单帧的深度估计 | 第20-23页 |
2.4.2 多帧的深度估计 | 第23-26页 |
2.5 深度图后处理 | 第26页 |
2.6 虚拟视点生成 | 第26-28页 |
2.7 本章小结 | 第28-29页 |
第三章 利用散焦线索的深度图生成 | 第29-51页 |
3.1 基于DCT的深度生成方法 | 第29-32页 |
3.1.1 基于块的初始深度图生成 | 第30-31页 |
3.1.2 深度图滤波 | 第31-32页 |
3.2 基于DCT的改进后的深度生成方法 | 第32-40页 |
3.2.1 基于滑动窗的DCT的深度图生成方法 | 第33页 |
3.2.2 实验结果与分析 | 第33-40页 |
3.3 基于熵的深度生成方法 | 第40-50页 |
3.3.1 光学成像系统的数学模型 | 第41-42页 |
3.3.2 基于熵的聚焦区域提取 | 第42-44页 |
3.3.3 基于HOS的聚焦区域提取 | 第44-45页 |
3.3.4 背景的深度模型 | 第45-46页 |
3.3.5 深度信息融合 | 第46-47页 |
3.3.6 深度图滤波 | 第47页 |
3.3.7 实验结果与分析 | 第47-50页 |
3.4 本章小结 | 第50-51页 |
第四章 利用混合深度线索的深度图生成 | 第51-66页 |
4.1 基于滑动窗DCT和显著图的深度图生成方法 | 第51-60页 |
4.1.1 显著图 | 第51-55页 |
4.1.2 基于滑动窗DCT和显著图的深度图生成方法 | 第55-57页 |
4.1.3 实验结果与分析 | 第57-60页 |
4.2 基于熵和暗通道先验的深度图生成方法 | 第60-65页 |
4.2.1 深度信息融合 | 第61-62页 |
4.2.2 实验结果与分析 | 第62-65页 |
4.3 本章小结 | 第65-66页 |
总结与展望 | 第66-68页 |
参考文献 | 第68-75页 |
攻读硕士学位期间取得的研究成果 | 第75-76页 |
致谢 | 第76-77页 |
附件 | 第77页 |