摘要 | 第5-7页 |
ABSTRACT | 第7-9页 |
第一章 绪论 | 第12-23页 |
1.1 研究背景和意义 | 第12-14页 |
1.2 研究现状 | 第14-19页 |
1.3 主要研究问题和挑战 | 第19-21页 |
1.4 研究内容和后续章节结构 | 第21-23页 |
第二章 裸眼三维显示内容合成原理 | 第23-36页 |
2.1 立体视觉原理 | 第23-29页 |
2.1.1 立体相机采集视图与深度关系 | 第23-27页 |
2.1.2 虚拟视点合成原理 | 第27-29页 |
2.2 裸眼三维显示方式与原理 | 第29-35页 |
2.2.1 多视点立体显示 | 第29-33页 |
2.2.2 光场立体显示 | 第33-35页 |
2.3 本章小结 | 第35-36页 |
第三章 高效立体匹配方法的研究 | 第36-66页 |
3.1 立体匹配算法 | 第36-46页 |
3.1.1 全局立体匹配 | 第37-38页 |
3.1.2 局部立体匹配 | 第38-43页 |
3.1.3 视差计算与优化 | 第43-45页 |
3.1.4 深度图上采样处理 | 第45-46页 |
3.2 基于迭代双边滤波聚合的并行立体匹配 | 第46-48页 |
3.2.1 迭代双边滤波一维聚合方法 | 第47页 |
3.2.2 代价空间二维聚合 | 第47-48页 |
3.3 匹配自动参数估计方法 | 第48-58页 |
3.3.1 基于纹理重叠度的自动参数估计算法 | 第49-53页 |
3.3.2 性能分析 | 第53-58页 |
3.4 视点间与帧间联合时空匹配 | 第58-65页 |
3.4.1 时域聚合算法原理 | 第59-62页 |
3.4.2 联合时空匹配的实现 | 第62页 |
3.4.3 性能分析 | 第62-65页 |
3.5 本章小结 | 第65-66页 |
第四章 基于深度的高分辨率立体图像渲染方法的研究 | 第66-81页 |
4.1 立体图像渲染方法 | 第66-69页 |
4.1.1 传统立体图像渲染方法的缺点 | 第66-67页 |
4.1.2 并行映射方法 | 第67-69页 |
4.2 空洞填充方法 | 第69-73页 |
4.2.1 传统空洞处理算法的特点 | 第69-70页 |
4.2.2 预测空洞映射算法 | 第70-73页 |
4.3 基于PHM的3D转换方法 | 第73-75页 |
4.4 性能分析 | 第75-80页 |
4.4.1 预测空洞填充性能分析 | 第75-78页 |
4.4.2 立体显示效果及分析 | 第78-79页 |
4.4.3 光场应用 | 第79-80页 |
4.5 本章小结 | 第80-81页 |
第五章 稀疏视点生成三维图像内容方法研究 | 第81-106页 |
5.1 稀疏视点合成密集视点方法 | 第81-93页 |
5.1.1 稀疏视点合成密集视点 | 第81-82页 |
5.1.2 两视点合成立体显示内容方法 | 第82-83页 |
5.1.3 基于自适应视点间联合优化算法的密集视点合成方法 | 第83-91页 |
5.1.4 实验效果及分析 | 第91-93页 |
5.2 稀疏视点重建光场方法 | 第93-101页 |
5.2.1 图像位置注册 | 第94-95页 |
5.2.2 图像中的光线搜索 | 第95-99页 |
5.2.3 性能分析 | 第99-101页 |
5.3 基于深度信息的三维场景增强现实方法 | 第101-105页 |
5.3.1 场景获取 | 第102-103页 |
5.3.2 场景融合 | 第103-104页 |
5.3.3 增强现实显示 | 第104-105页 |
5.4 本章小结 | 第105-106页 |
第六章 结论 | 第106-109页 |
6.1 本文工作总结 | 第106-107页 |
6.2 不足与改进措施 | 第107-109页 |
参考文献 | 第109-121页 |
致谢 | 第121-122页 |
博士期间发表的论文及发表专利 | 第122页 |