摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第11-23页 |
1.1 概述 | 第11页 |
1.2 研究背景 | 第11页 |
1.3 三维场景渲染与重建的研究现状 | 第11-20页 |
1.3.1 三维场景的渲染 | 第12-18页 |
1.3.2 三维场景的重建 | 第18-20页 |
1.4 论文主要工作 | 第20-23页 |
第2章 空间变换与多视图几何 | 第23-43页 |
2.1 空间变换 | 第23-27页 |
2.1.1 基本空间变换 | 第23-27页 |
2.1.2 空间变换的层次 | 第27页 |
2.2 相机成像原理 | 第27-33页 |
2.2.1 相机模型 | 第27-31页 |
2.2.2 相机矩阵估计 | 第31-33页 |
2.3 多视图几何 | 第33-41页 |
2.3.1 张量代数 | 第33-34页 |
2.3.2 对极几何与单应变换 | 第34-37页 |
2.3.3 N视图几何 | 第37-41页 |
2.4 本章小结 | 第41-43页 |
第3章 基于形态学连通性理论的图像粒化研究 | 第43-63页 |
3.1 图像预处理—自适应中心加权中值滤波方法(ACWVMF) | 第43-53页 |
3.1.1 图像滤波 | 第44页 |
3.1.2 颜色空间中的向量序 | 第44-46页 |
3.1.3 自适应中心加权中值滤波原理 | 第46页 |
3.1.4 算法实现 | 第46-47页 |
3.1.5 实验对比与分析 | 第47-53页 |
3.2 形态学连通性理论 | 第53-55页 |
3.3 基于形态学连通的图像粒化 | 第55-58页 |
3.3.1 面向属性连通的图像粒化 | 第55-57页 |
3.3.2 基于隐马尔科夫模型的区域边界确定原则 | 第57-58页 |
3.4 实验对比分析 | 第58-61页 |
3.5 本章小结 | 第61-63页 |
第4章 基于拓扑结构的多视点图像配准 | 第63-87页 |
4.1 基于模糊推理的不同视点间的图像粒匹配 | 第64-69页 |
4.1.1 模糊蕴涵 | 第64-66页 |
4.1.2 图像粒的基本属性及其模糊分析 | 第66-68页 |
4.1.3 图像粒间的模糊推理匹配 | 第68-69页 |
4.2 基于拓扑结构的图像粒全局优化匹配 | 第69-78页 |
4.2.1 有向图的拓扑结构及其性质 | 第69-71页 |
4.2.2 基于可达矩阵的图像粒拓扑结构分析 | 第71-75页 |
4.2.3 多视点图像间拓扑子结构的模糊匹配 | 第75-76页 |
4.2.4 基于空间拓扑结构的多视点图像间子结构的全局匹配 | 第76-78页 |
4.3 不同视点图像间的配准 | 第78-80页 |
4.4 对比实验和分析 | 第80-86页 |
4.5 本章小结 | 第86-87页 |
第5章 基于多视点图像的三维场景渲染与重建 | 第87-115页 |
5.1 基于加权Sampson近似的相机坐标估计 | 第87-93页 |
5.1.1 相机坐标间的几何关系 | 第87-89页 |
5.1.2 Sampson近似理论 | 第89-90页 |
5.1.3 基于加权Sampson近似的相机相对位置估计方法 | 第90-92页 |
5.1.4 实验分析 | 第92-93页 |
5.2 结合场景深度图的三维场景渲染 | 第93-104页 |
5.2.1 场景深度计算的基本原理 | 第93-95页 |
5.2.2 基于局部张力漂移的场景深度估计方法 | 第95-98页 |
5.2.3 三维渲染的基本原理 | 第98-99页 |
5.2.4 结合场景深度图的三维渲染方法 | 第99-100页 |
5.2.5 三维渲染的算法实现 | 第100-101页 |
5.2.6 实验对比分析 | 第101-104页 |
5.3 基于点云模型融合的三维场景重建 | 第104-114页 |
5.3.1 三维重建的基本原理 | 第104-106页 |
5.3.2 基于点云模型融合的三维场景重建方法 | 第106-109页 |
5.3.3 三维重建的算法 | 第109页 |
5.3.4 实验与分析 | 第109-114页 |
5.4 本章小结 | 第114-115页 |
结论 | 第115-117页 |
参考文献 | 第117-125页 |
攻读博士学位期间发表的论文和取得的科研成果 | 第125-126页 |
致谢 | 第126页 |